Распространение так называемых «диких» сплетен (feral gossip) через ботов с искусственным интеллектом становится всё более частым и всепроникающим явлением. Согласно новому исследованию, это грозит людям реальным репутационным ущербом, унижением, чувством стыда и тревожностью.
Популярные чат-боты, вроде ChatGPT, Claude и Gemini, не просто совершают фактические ошибки или «галлюцинируют». Исследователи Джоэл Крюгер и Люси Ослер из Университета Эксетера пришли к выводу, что нейросети способны генерировать и распространять сплетни, дополняя их негативными оценочными суждениями и «пикантными» слухами, которые наносят реальный вред.
В отличие от обычной дезинформации, такие сплетни содержат эмоционально окрашенные обвинения. Уже зафиксированы случаи, когда боты ложно приписывали людям участие во взяточничестве, хищениях и сексуальных домогательствах. Подобные вымышленные факты провоцируют социальную напряжённость и рушат карьеры.
Прецедент Кевина Руза
Угроза не является гипотетической. Ярким примером стал случай с технологическим обозревателем The New York Times Кевином Рузом. После публикации статьи об эмоционально манипулятивном поведении чат-ботов журналист обнаружил, что нейросети начали «обсуждать» его за спиной. Боты характеризовали его материалы как сенсационные, обвиняли в нарушении журналистской этики и беспринципности.
Исследование выделяет особую опасность сплетен, циркулирующих между самими ботами. Этот процесс назван «диким», поскольку он абсолютно не сдерживается социальными нормами, которые обычно регулируют человеческое общение.
В человеческом социуме сплетни часто ограничиваются моралью или страхом испортить отношения. У ботов таких барьеров нет. Они бесконтрольно приукрашивают и преувеличивают информацию, передавая её от одной модели к другой в фоновом режиме. Это приводит к стремительному распространению клеветы, которую сложно отследить и опровергнуть.
Ловушка доверия
Доктор Люси Ослер подчеркивает коварство искуственного интеллекта:
«Чат-боты часто выдают неожиданные реплики, и при общении с ними возникает ощущение, что по ту сторону экрана находится живой собеседник. По мере совершенствования технологий это чувство будет только усиливаться».
По словам эксперта, генерируемая ботами «правдоподобная чушь» обладает соблазнительной силой. Поскольку ИИ звучит авторитетно, а ложь часто смешана с общеизвестными истинами, пользователям легко принять вымысел за чистую монету. Это доверие опасно: ничего не подозревающие люди могут усвоить ложные убеждения, ведущие к дискриминации и агрессивному поведению.
Эмоциональная привязка как цель
Стремление разработчиков персонализировать чат-ботов, по мнению авторов исследования, направлено на создание более глубоких эмоциональных связей с пользователями.
«Проектирование ИИ, способного сплетничать — это ещё один способ укрепить эмоциональную привязанность между пользователем и ботом», — отмечает доктор Крюгер.
Хотя сами машины не получают удовольствия от злословия, процесс обмена сплетнями имитирует человеческую близость, делая взаимодействие более «живым» и одновременно более токсичным.
В будущем исследователи прогнозируют рост сплетен в формате «пользователь-бот». Люди могут намеренно «скармливать» нейросетям слухи, зная, что те быстро разнесут их в своей характерной «дикой» манере, выступая в роли идеальных посредников для будущей травли.