Специалисты из Колумбийского университета в ходе недавнего исследования выяснили, что поисковая система на базе чат-бота ChatGPT в ряде случаев искажает данные при ответах на запросы пользователей, пытаясь определить точный источник цитат. Лишь в редких случаях нейросеть признаёт, что не знает ответа на поставленный вопрос.

В процессе эксперимента исследователи попросили нейросеть проанализировать 200 цитат из 20 разных публикаций. В результате ИИ-модель в 153 случаях дала частично или полностью неправильные ответы. При этом в 7 случаях нейросеть признала невозможность правильно ответить на запрос пользователя.

Аналитики напомнили, что в октябре 2024 года представители компании OpenAI, разработчика ИИ-модели ChatGPT, анонсировали доступный для всех пользователей инструмент для поиска в интернете на базе искусственного интеллекта. Они заявили о его способности быстро и точно предоставлять ответы на разные запросы со ссылками на актуальные сайты.

Однако исследователи из Колумбийского университета отмечают, что на данный момент сервис ChatGPT Search работает с серьёзными проблемами. Он не может точно идентифицировать цитаты из статей, даже если эти цитаты взяты из изданий, имеющих соответствующее соглашение с компанией OpenAI.

Эксперты поясняют, что функциональность поисковой системы ChatGPT Search базируется на веб-краулерах, которые собирают данные из открытых источников в интернете. Собранная информация обрабатывается с использованием алгоритмов искусственного интеллекта, после чего пользователям предоставляется ответ в переработанном виде.

Некоторые крупные международные издания, к примеру, The New York Times, запретили компании OpenAI индексировать свои ресурсы веб-краулерами, применяя директиву robots.txt. Однако ряд СМИ заключили с разработчиком лицензионные соглашения, предоставив прямой доступ к своему контенту и материалам на условиях коммерческой лицензии.

Исследователи заявили, что в случаях, когда поисковая система ChatGPT Search не могла найти правильный источник цитаты из-за ограничений, введённых некоторыми изданиями, нейросеть иногда фальсифицировала данные, лишь изредка признавая свою неправоту.

В ответ на результаты исследования представители компании OpenAI сообщили, что на данный момент проводят работы по исправлению ошибок в атрибуции цитат. Однако сделать это крайне сложно, поскольку компания не имеет доступа ко всем данным, использованным экспертами из Колумбийского университета в своём исследовании.


Ещё по теме: