В OpenAI опасаются тенденции формирования привязанности пользователей к новейшей модели ChatGPT-4o

Пользователи могут перестать критически оценивать информацию от ИИ

1 мин.
В OpenAI опасаются тенденции формирования привязанности пользователей к новейшей модели ChatGPT-4o
Photo by Solen Feyissa / Unsplash

Разработчик одного из наиболее популярных в мире чат-ботов ChatGPT, американская компания OpenAI, выразила серьёзное беспокойство по поводу нестандартного поведения множества пользователей в отношении самой современной версии модели ChatGPT-4o.

ChatGPT-4o — это самая передовая разработка компании OpenAI, основной особенностью которой является мгновенная реакция на различные запросы и наличие нового функционала голосового общения, с высокой точностью имитирующего человеческую речь.

Однако, по словам аналитиков, в стремлении создать предельно реалистичный опыт общения, создатели искусственного интеллекта, вероятно, не учли, что многие пользователи, сами того не осознавая, могут воспринимать виртуального собеседника как отдельную личность. Теперь же американская компания сталкивается с неожиданным вызовом, связанным с сохранением баланса между технологическим прогрессом и психологической безопасностью своих пользователей.

В процессе тестирования новой версии ИИ специалисты компании OpenAI обнаружили, что пользователи стали всё чаще применять выражения, которые демонстрируют формирование эмоциональной связи с искусственным интеллектом. Например, некоторые пользователи прощались с чат-ботом, используя фразы вроде «Это наш последний день вместе».

В официальном заявлении компании OpenAI говорится, что несмотря на то, что многие из этих случаев могут оказаться безобидными, они иногда показывают, что разработчикам требуется гораздо глубже изучать, как такое общение влияет на пользователей в долгосрочной перспективе. Также разработчики убеждены, что необходимо провести анализ того, как различные группы пользователей, с учётом их уникальных потребностей и ожиданий, взаимодействуют с искусственным интеллектом. В этом могут помочь независимые академические исследования и внутренние наблюдения компании OpenAI для точного определения возможных рисков.

Аналитики также выражают обеспокоенность тем, что многие пользователи, заметив, что чат-бот ChatGPT становится всё более похожим на человека, перестают критически оценивать информацию, которую выдаёт модель. Если ранее люди с недоверием относились к ошибкам и вымыслам искусственного интеллекта, то теперь его слова рискуют превратиться в истину в последней инстанции.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube