Совместное написание текстов с нейросетями влияет на взгляды людей сильнее, чем прямое чтение пропаганды

Как ИИ-суфлёры незаметно меняют наши убеждения (и почему предупреждения не работают)

2 мин.
Совместное написание текстов с нейросетями влияет на взгляды людей сильнее, чем прямое чтение пропаганды

Алгоритмы автодополнения текста, которые сегодня встроены в почтовые сервисы и мессенджеры, способны не просто угадывать следующее слово, но и незаметно корректировать мировоззрение автора. К такому выводу пришли учёные из технологического кампуса Корнеллского университета в своём новом исследовании, результаты которого опубликованы в научном журнале Science Advances.

Чтобы проверить эту гипотезу, исследователи провели два масштабных эксперимента с участием более 2500 человек. Добровольцев попросили написать небольшие эссе на острые социально-политические темы: отмена смертной казни, использование фрекинга (гидроразрыва пласта) в добыче полезных ископаемых, целесообразность стандартизированных тестов в школах, отношение к ГМО и право голоса для заключённых.

Часть участников работала в паре с ИИ-помощником, который был намеренно запрограммирован предлагать предвзятые подсказки при автодополнении предложений. Как показали последующие опросы, люди, использовавшие этот инструмент, в итоге сместили свои личные взгляды в сторону позиции, которую транслировала нейросеть. При этом абсолютное большинство авторов даже не осознало, что подверглось манипуляции.

Иллюзия собственного выбора

Пожалуй, самый тревожный вывод учёных заключается в том, что традиционные методы борьбы с дезинформацией в случае с ИИ оказались бессильны. Ни предварительные предупреждения о предвзятости алгоритма, ни подробный «разбор полётов» после эксперимента не смогли нивелировать этот эффект.

Ведущий автор исследования Стерлинг Уильямс-Сеси отмечает, что в классических сценариях столкновения с фейками предупреждения обычно вырабатывают у людей своеобразный иммунитет. Однако в контексте работы с алгоритмами эта защита почему-то не сработала.

Разгадка кроется в самой механике взаимодействия. Учёные предложили контрольной группе просто прочитать список тех же самых предвзятых аргументов в виде обычного текста. В этом случае мнение участников изменилось значительно меньше. Становится очевидно: именно интерактивность и процесс интеграции подсказок ИИ в свой собственный текст заставляют человеческий мозг воспринимать навязанные мысли как свои собственные.

Эпоха тотального соавторства

Проблема приобретает новые масштабы на фоне повсеместного внедрения подобных технологий. По словам профессора информатики Мор Наамана, если ещё три года назад функции автодополнения ограничивались короткими фразами, то сегодня сервисы вроде Gmail предлагают пользователям написание целых писем. В таких условиях встроенная в алгоритмы предвзятость становится не просто теоретической уязвимостью, а реальным сценарием массового влияния.

Результаты эксперимента ставят под сомнение эффективность привычных инструментов медиаграмотности: плашек с предупреждениями и маркировки контента. Мы входим в эпоху, когда нейросети не просто выдают готовую информацию, а становятся полноправными соавторами нашего мышления. Как резюмирует Уильямс-Сеси, это влияние остаётся скрытым – пользователи его не замечают, а значит, и не могут ему сопротивляться.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN