Несколько недель назад международная медиакорпорация News Corp подала иск против ИИ-сервиса Perplexity AI, предлагающего услуги поискового чат-бота, работающего на базе искусственного интеллекта.

Суть поданного медиакорпорацией иска состоит в том, что поисковые чат-боты на базе ИИ оказывают серьёзное влияние на будущее традиционных поисковых систем, предлагающих ответы, собранные из различных web-ресурсов. Представители истца отмечают, что, если сравнивать со стандартными чат-ботами, которые обучены на закрытых наборах данных, системы наподобие Perplexity, Google Gemini и SearchGPT от OpenAI осуществляют сбор и структурирование информации с использованием внешних источников, после чего предоставляют краткий результат пользователю со ссылками на эти источники. В идеальном варианте подобная модель может максимально точно понимать пользовательские запросы, выдавая сжатые версии информации с определённых сайтов.

Однако в корпорации News Corp убеждены, что подобный подход серьёзно угрожает финансовой устойчивости всей цифровой экосистемы, которая зависит от посещаемости, то есть от доходов от рекламы, подписок, донатов и продаж. Проще говоря, искусственный интеллект при подобном подходе защищает контент от прямого доступа к нему со стороны пользователей, в результате чего создатели контента лишаются максимально важного для них ресурса — внимания и посещаемости страниц.

Представители News Corp указывают в своих исковых документах на то, что применение контента медиакорпорации для формирования ответов нарушает авторские права, потому как сервисы наподобие Perplexity AI конкурируют с традиционными новостными сайтами за внимание аудитории, используя для этого контент, созданный другими организациями.

Точно такие же претензии сейчас сформировались в отношении разработчиков технологий искусственного интеллекта и у многих других крупных издателей. К примеру, газета The New York Times уже направила в адрес администрации сервиса Perplexity просьбу прекратить практику использования её материалов для обучения моделей искусственного интеллекта. В этом документе говорилось о том, что, в отличие от моделей искусственного интеллекта, которые были обучены на больших массивах данных, где ценность отдельных материалов крайне мала, поисковики на базе искусственного интеллекта формируют краткие ответы, указывая авторитетные источники, вследствие чего происходит фактическая подмена оригинальных статей.


Ещё по теме: