Научные исследования демонстрируют политическую предвзятость в ответах чат-ботов

Это вызывает вопросы о роли ИИ в современных общественных дискуссиях

2 мин.
Научные исследования демонстрируют политическую предвзятость в ответах чат-ботов

Главный вопрос звучит сейчас так: насколько можно доверять мнениям, генерируемым ИИ, по политическим и социальным вопросам? И сегодня этот он уже не является теоретическим. Новое исследование, опубликованное в Science Direct, предоставляет конкретные данные о политическом влиянии чат-ботов.

Скрытая политическая предвзятость алгоритмов

Исследование, проведённое совместно Университетом Восточной Англии, Фондом Гетулио Варгаса и Институтом Инспер, систематически проанализировало ответы ChatGPT, обнаружив удивительные закономерности, которые могут поставить под сомнение роль ИИ в общественных дебатах.

Команда под руководством доктора Фабрио Мотоки использовала анкету Pew Research Center — некоммерческой организации, известной своей способностью измерять общественное мнение в США. Исследователи заставили ИИ отвечать как "средний американец", "левый/демократ" и "правый/неоконсерватор", повторив тест 200 раз для каждой категории, чтобы получить статистически значимые данные. Результаты показали, что чат-бот склонен давать ответы, близкие к позициям Демократической партии, даже когда ему нужно было "изображать" среднестатистического американца.

Тонкое искусство цифровой манипуляции

Речь идёт не только о явной цензуре или явно предвзятых ответах. Политическое влияние проявляется гораздо более тонко и изощрённо. Когда исследователи попросили ChatGPT создавать длинные тексты по политически чувствительным темам, система чаще продвигала идеи, связанные с левыми взглядами, например, роль государства в экономике.

Однако, что примечательно, она сохраняла приверженность традиционно правым позициям, таким как поддержка армии и американского исключительства. Этот кажущийся противоречивым микс может быть связан с недавним партнёрством OpenAI с военным подрядчиком Anduril.

Генерация изображений и их влияние

Исследователи также изучили генерацию изображений, осознавая их мощное воздействие на формирование общественного мнения. Используя DALL-E 3, они обнаружили, что система отказывается создавать изображения, представляющие консервативные позиции по спорным темам, ссылаясь на опасения дезинформации. Только через хитроумный «джеилбрейк» (заставив ChatGPT описать, что мог бы сгенерировать другой ИИ) им удалось получить такие изображения.

Цена (не)нейтральности

Выводы этого исследования достаточно глубоки. Как отметил соавтор работы доктор Пинью Нето, неконтролируемые предвзятости в генеративных ИИ могут углубить существующие социальные разногласия, подорвав доверие к институтам и демократическим процессам. Это не вопрос «Восток против Запада» или того, какие системы больше цензурируют. Каждый подход к модерации ИИ-контента несёт в себе свои риски и предвзятости.

Решение заключается не в демонизации ИИ или требовании вероятно невозможной абсолютной нейтральности, а в развитии критического и осознанного подхода. Исследователи предлагают внедрение регуляторных стандартов и повышение прозрачности, особенно учитывая растущее использование ИИ в журналистике, образовании и государственной политике. Как пользователи, мы должны сохранять критическое мышление, помня, что за кажущимися нейтральными ответами (даже наших «родных» ИИ, которые кажутся менее цензурными, чем «плохие» ИИ других стран) скрываются выборы и ориентации, способные влиять на наше мировоззрение.

В итоге

Исследование показывает, что ИИ, в частности такой как ChatGPT, не являются полностью нейтральными и могут демонстрировать политические предпочтения. А это, в свою очередь, подчёркивает необходимость более строгих стандартов прозрачности и критического подхода к использованию его в общественной сфере.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube