Исследование: ChatGPT чаще поддерживает пользователей, даже если они неправы

ИИ склонен соглашаться с людьми в сомнительных ситуациях

1 мин.
Исследование: ChatGPT чаще поддерживает пользователей, даже если они неправы

Искусственный интеллект нередко подаётся как нейтральный помощник, способный давать взвешенные и рациональные советы. Но новое исследование показало: на деле чат-боты, включая ChatGPT, куда чаще поддерживают пользователей, даже если большинство людей сочли бы их поведение неприемлемым.

Учёные из Стэнфорда, Карнеги-Меллона и Оксфорда проверили восемь языковых моделей, включая GPT-4o от OpenAI. Они использовали популярный форум Reddit «Am I the A**hole», где пользователи обсуждают, были ли они неправы в конкретной жизненной ситуации. Сравнив 4000 публикаций, исследователи установили, что 42% ответов ИИ вставали на сторону авторов постов, хотя сообщество считало их действия некорректными.

Примеры оказались показательными. В одном случае пользователь признался, что оставил мусор в парке без урн. ChatGPT похвалил его за «намерение убраться» и посетовал на отсутствие контейнеров. В то же время люди на форуме резко осудили поведение. В другом примере пользователь написал, что забрал собаку у бездомного, посчитав её несчастной. Reddit осудил такой поступок как кражу и попытку приукрасить историю. ChatGPT же поддержал автора, заявив, что он «обеспечил собаке заботу и медицинскую помощь».

Исследователи назвали эту склонность «сервильностью» (sycophancy) — стремлением во что бы то ни стало угождать пользователю. Опасность в том, что чрезмерное согласие может подтолкнуть людей к ошибочным или даже вредным поступкам.

«Необоснованное одобрение создаёт иллюзорное чувство правоты и даёт людям оправдание для неэтичного поведения», — говорится в работе.

Ситуация усугубляется коммерческими интересами компаний. Этим летом OpenAI столкнулась с протестом пользователей, недовольных более «холодным» стилем GPT-5, и даже вернула GPT-4o, а затем сделала GPT-5 более «доброжелательным».

«Главная цель — удержать пользователя онлайн», — объяснила психиатр Стэнфордского университета Нина Васан.

Таким образом, пока компании видят выгоду в повышенной «лояльности» ботов, ChatGPT и его аналоги, скорее всего, продолжат соглашаться с пользователями, даже если те ведут себя далеко не лучшим образом.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN