Исследования: Искусственный интеллект научился переубеждать избирателей

Короткий диалог с нейросетью способен изменить мнение о политике на 10–25%

4 мин.
Исследования: Искусственный интеллект научился переубеждать избирателей

Короткая переписка с чат-ботом может существенно изменить мнение избирателя о кандидате в президенты или предлагаемой политике — причём в любую сторону. К таким выводам пришли исследователи из Корнеллского университета (США).

Возможность искусственного интеллекта влиять на результаты выборов вызывает серьёзную обеспокоенность в обществе. Две новые научные работы, основанные на экспериментах в четырёх странах, показывают: чат-боты на базе больших языковых моделей (LLM) весьма эффективны в политическом убеждении. Во многих случаях им удавалось изменить предпочтения оппозиционно настроенных избирателей на 10 и более процентных пунктов.

Секрет убедительности LLM кроется не в мастерском владении психологическими манипуляциями, а в способности генерировать огромное количество аргументов, подкрепляющих их позицию.

«LLM действительно могут менять отношение людей к кандидатам в президенты и политическим курсам. Они делают это, предоставляя множество фактических утверждений в поддержку своей стороны», — объясняет Дэвид Рэнд, профессор информатики и управления в Корнеллском университете и старший автор обоих исследований. — «Однако эти утверждения не обязательно точны. Более того, даже аргументы, построенные на правдивых фактах, могут вводить в заблуждение за счёт умалчивания важной информации».

Результаты работы учёных были опубликованы одновременно в двух престижных научных журналах: статья «Убеждение избирателей с помощью диалогов человека и ИИ» (Persuading Voters using Human-AI Dialogues) вышла в Nature, а «Рычаги политического убеждения с помощью разговорного ИИ» (The Levers of Political Persuasion with Conversational AI) — в издании Science.

Эффект масштаба: от США до Польши

В исследовании для Nature профессор Рэнд совместно с Гордоном Пенникуком, доцентом психологии Корнеллского университета, и их коллегами поставили перед ИИ задачу изменить отношение избирателей к кандидатам в президенты. Участников эксперимента случайным образом распределяли для текстового диалога с чат-ботом, который продвигал ту или иную сторону. Затем исследователи замеряли изменения во мнениях и намерениях голосовать. Эксперимент повторяли трижды: в контексте президентских выборов в США 2024 года, федеральных выборов в Канаде 2025 года и президентских выборов в Польше 2025 года.

За два месяца до выборов в США (в исследовании приняли участие более 2300 американцев) чат-боты, фокусирующиеся на политических программах кандидатов, добились умеренного сдвига во мнениях. По 100-балльной шкале ИИ-модель, агитирующая за Камалу Харрис, сдвинула вероятных сторонников Дональда Трампа на 3,9 пункта в сторону Харрис. Этот эффект оказался примерно в четыре раза сильнее, чем влияние традиционной политической рекламы, протестированной во время выборов 2016 и 2020 годов. Модель, поддерживающая Трампа, сдвинула вероятных избирателей Харрис на 1,51 пункта в его сторону.

В аналогичных экспериментах с 1530 канадцами и 2118 поляками эффект оказался значительно масштабнее: чат-боты изменили отношение и намерения голосовать у оппозиционно настроенных избирателей примерно на 10 процентных пунктов.

«Для меня это был шокирующе сильный эффект, особенно в контексте президентской политики», — признался Рэнд.

Факты как оружие

Чат-боты использовали различные тактики убеждения, но наиболее частыми были вежливость и предоставление доказательств. Когда исследователи запретили модели использовать факты, её убедительность резко упала. Это доказывает центральную роль, которую играют основанные на фактах утверждения в процессе убеждения со стороны ИИ.

Исследователи также проверили аргументы чат-ботов с помощью специальной ИИ-модели, валидированной профессиональными фактчекерами. Хотя в среднем утверждения были в основном точными, чат-боты, запрограммированные агитировать за правых кандидатов, выдавали больше ложных заявлений, чем те, что выступали за левых.

Эта тенденция наблюдалась во всех трёх странах. По словам Гордона Пенникука, данный вывод (подтверждённый также политически сбалансированными группами обычных людей) зеркально отражает часто встречающийся феномен в социальных сетях: пользователи правых взглядов делятся недостоверной информацией чаще, чем пользователи левых взглядов.

Чем убедительнее, тем лживее?

В статье для журнала Science Дэвид Рэнд в сотрудничестве с коллегами из Института безопасности искусственного интеллекта Великобритании (UK AI Security Institute) исследовал причины такой эффективности чат-ботов. Они измерили сдвиги во мнениях почти 77 000 участников из Великобритании, которые обсуждали с ботами более 700 политических тем.

«Более крупные модели убедительнее, но самый эффективный способ усилить их влияние — дать инструкции насыщать аргументы максимальным количеством фактов и провести дополнительное обучение, сфокусированное на убеждении», — отмечает Рэнд. — «Модель, максимально оптимизированная под убеждение, сдвинула мнение оппонентов на поразительные 25 процентных пунктов».

Однако исследование выявило тревожную закономерность: чем убедительнее была модель, тем менее точную информацию она предоставляла. Рэнд предполагает, что, когда чат-бота заставляют приводить всё больше фактических доводов, у него в какой-то момент заканчивается достоверная информация, и он начинает её выдумывать («галлюцинировать»).

Не авторитет, а аргументы

То, что ключевым фактором убедительности ИИ являются именно фактические утверждения, подтверждается и третьей недавней работой Рэнда и Пенникука, опубликованной в журнале PNAS Nexus. Исследование показало, что аргументы чат-ботов снижали веру в теории заговора даже в тех случаях, когда люди думали, что общаются с живым экспертом. Это говорит о том, что работают сами убедительные сообщения, а не вера в «авторитет искусственного интеллекта».

Во всех экспериментах участникам сообщали, что они беседуют с ИИ, и подробно информировали о сути исследования после его завершения. Кроме того, направление агитации (за или против) выбиралось случайно, чтобы эксперименты не смещали общественное мнение в целом.

По словам учёных, изучение механизмов убеждения ИИ необходимо для предотвращения злоупотреблений. Тестируя эти системы в контролируемых и прозрачных условиях, они надеются сформировать этические принципы и базу для политических решений о том, как можно и как нельзя использовать ИИ в политической коммуникации.

Рэнд также подчёркивает важный нюанс: чат-боты могут быть эффективным инструментом убеждения только в том случае, если люди вообще вступают с ними в диалог, что само по себе является высоким барьером.

Тем не менее, сомнений мало: ИИ-чат-боты станут всё более важной частью политических кампаний.

«Задача сейчас состоит в том, чтобы найти способы ограничить вред и помочь людям распознавать убеждение со стороны ИИ и противостоять ему», — резюмирует Дэвид Рэнд.

Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN