Опросы общественного мнения и социологические исследования пополнили длинный список вещей, которыми может манипулировать искусственный интеллект. Новое исследование показало, что технология способна почти идеально имитировать людей, обходя стандартные средства защиты, предназначенные для выявления ботов. Исследование Дартмутского университета демонстрирует как продвинутый ИИ может искажать данные опросов в масштабах, достаточных для подмены результатов.
Автономный синтетический респондент на базе большой языковой модели (LLM), созданный Шоном Вествудом — доцентом кафедры государственного управления в Дартмуте и автором статьи — смог обойти системы обнаружения ботов в онлайн-опросах. Используя промт из 500 слов, ИИ создаёт личность на основе сгенерированных демографических данных, таких как возраст, пол, раса, образование, доход и штат проживания. Чтобы избежать автоматического обнаружения, бот имитирует реалистичное время чтения в зависимости от уровня образования сгенерированного персонажа, совершает человекоподобные движения мышью и печатает ответы на открытые вопросы посимвольно, даже допуская правдоподобные опечатки и исправления.
В ходе более чем 43 000 тестов ИИ убедил 99,8% систем в том, что он человек. Он не допустил ошибок в логических головоломках и тестах reCAPTCHA, а также смог избежать задач, которые ИИ мог бы легко выполнить, а человек нет.
Согласно данным, потребовалось бы всего от 10 до 52 поддельных ответов от ИИ, чтобы изменить исход семи крупных национальных опросов перед выборами 2024 года. Стоимость развёртывания автоматизированных ответов составила бы всего 5 центов (около 4,5 рублей) за каждый, в то время как людям за прохождение опроса обычно платят около $1,50 (примерно 135 рублей). Вызывает тревогу и тот факт, что боты могли давать безупречные ответы на английском языке, даже будучи запрограммированными на русском, китайском (мандарин) или корейском языках, что подчёркивает, как легко иностранные злоумышленники могут манипулировать результатами опросов.
Этот ИИ-агент представляет собой независимую от модели программу, написанную на Python, поэтому его можно развернуть с помощью API от ИИ-компаний или запустить локально с моделями с открытым исходным кодом вроде Llama. В ходе тестирования в основном использовалась модель o4-mini от OpenAI, а для некоторых задач также применялись DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok3 и Gemini 2.5 Preview.
ИИ также может оказать огромное влияние на научные исследования, которые опираются на данные, собранные с помощью онлайн-платформ.
«Мы больше не можем быть уверены, что ответы в опросах поступают от реальных людей», — заявил Вествуд. «С данными, испорченными ботами, ИИ может отравить всю экосистему знаний».
Вествуд предупредил, что научному сообществу необходимо разработать способы сбора данных, которыми нельзя манипулировать с помощью передовых ИИ-инструментов.
«Технология для проверки реального человеческого участия существует; нам просто нужна воля, чтобы её внедрить», — сказал он. «Если мы будем действовать сейчас, мы сможем сохранить как целостность опросов, так и демократическую подотчётность, которую они обеспечивают»
Ещё по теме:
- Grok 4.1 научился лучше всех понимать человеческие эмоции и почти не врёт
- Охота на iPhone: Лондонские воры возвращают украденные Android-смартфоны
- Пол Маккартни выпустил безмолвный трек в знак протеста против ИИ