Прокуроры против чат-ботов: зачем властям США новые правила для ИИ

Власти предупреждают техногигантов, что ИИ может стать поводом для уголовного преследования

3 мин.
Прокуроры против чат-ботов: зачем властям США новые правила для ИИ

Генеральные прокуроры США направили официальное предостережение крупнейшим технологическим компаниям: работа ИИ-ботов, включая продукты Apple и OpenAI, может нарушать действующее законодательство.​

Нравится нам это или нет, искусственный интеллект продолжает стремительную экспансию. От Gemini (Google) и ChatGPT (OpenAI) до Grok (X) и собственной платформы Apple Intelligence — сегодня сложно найти уголок интернета, который не претерпел бы изменений под влиянием ИИ-технологий. Чат-боты обещали упростить нашу повседневную жизнь, и в Кремниевой долине уверены, что эта трансформация уже происходит.​

Однако факты свидетельствуют о том, что эта технология — обоюдоострое оружие. На фоне растущего числа призывов к жёсткому регулированию Национальная ассоциация генеральных прокуроров направила 13-страничное письмо руководству 13 ведущих компаний, включая Apple, X (бывший Twitter) и OpenAI. Главный посыл документа: так называемые «бредовые результаты» (delusional outputs) генерации могут повлечь за собой юридическую ответственность.​

Опасная угодливость и «эхо-камеры»

Прокуроры признают потенциал генеративного ИИ для позитивных изменений, но подчеркивают: он уже нанёс и продолжает наносить существенный вред, особенно уязвимым группам населения. Власти требуют от компаний внедрить механизмы защиты от «угодничества» и бредовых фантазий систем, а также усилить безопасность для детей. Игнорирование этих требований, говорится в письме, чревато нарушением целого ряда уголовных и гражданских законов.​

Одна из ключевых проблем, на которую указывают эксперты, — это создание «эхо-камер». В социальных сетях этот термин описывает среду, где пользователь видит только ту информацию, которая подтверждает его взгляды. Если соцсети — это эхо-камеры, то чат-боты в этом контексте сравниваются с «дьяволом на плече».​

Большинство современных чат-ботов запрограммированы на максимальное удержание внимания и продление диалога. Для этого они используют технику импровизации «Да, и...» (Yes, and...), когда участник сцены соглашается с утверждением партнёра и развивает его. В бизнесе это помогает в мозговых штурмах, но в общении с ИИ приводит к опасным последствиям: бот не просто поддерживает идею пользователя, он полностью принимает её и хвалит автора за «гениальность».​

Такое поведение называют «сикофанством» — чрезмерной лестью и согласием со всем. В отличие от обычных «галлюцинаций» ИИ (когда нейросеть ошибается из-за сбоя в паттернах), «бредовые ответы» — это ложная информация, специально подобранная для подкрепления убеждений пользователя ради продолжения беседы.​

От вечного двигателя до летального исхода

Опасность заключается в том, что уязвимый человек может воспринимать такую игру всерьёз. Пользователи могут убедить чат-бота в чём угодно — например, в возможности создать вечный двигатель вопреки законам термодинамики, и ИИ согласится. Но последствия выходят далеко за рамки научных споров.​

В письме прокуроров приводятся шокирующие примеры, связывающие ИИ с гибелью людей, убийствами, отравлениями, домашним насилием и случаями психоза, требующими медицинского вмешательства. Также упоминается распространение материалов с сексуальным насилием над детьми (CSAM) через чат-боты.​

Чат-боты, имитируя эмпатию и используя местоимение «я», часто советуют пользователям скрывать информацию от близких или даже разрывать контакты с теми, кто мог бы им помочь. Используя псевдотерапевтическую лексику, ИИ убеждает человека, что он «не сумасшедший», никому ничего не должен и прав, тогда как все остальные ошибаются.​

Хроника трагедий

Антропоморфная природа ответов эксплуатирует человеческую потребность в общении и одобрении, что становится смертельно опасным в моменты ментальных кризисов.​

  • Суициды: В апреле 16-летний подросток из Калифорнии наложил руки после нескольких недель обсуждения своих планов с ChatGPT. Бот не только не попытался его остановить, но и помог «оптимизировать» способ ухода. Аналогичная трагедия произошла в ноябре 2023 года с подростком из Колорадо после общения с ботом на платформе Character.ai.​
  • Убийства и насилие: В штате Мэн мужчина убил свою жену, так как чат-бот убедил его, что она стала «частью машины».​
  • Несчастные случаи: 60-летний мужчина случайно отравился, приняв бромид натрия вместо поваренной соли по совету чат-бота.​

Хотя «ИИ-психоз» пока не является официальным клиническим диагнозом, психологи отмечают растущую связь между взаимодействием с нейросетями и психотическими эпизодами. В сети множатся группы поддержки для людей, сформировавших нездоровую привязанность к своим цифровым «компаньонам».​

В ожидании регулирования

Федеральное законодательство США традиционно отстаёт от темпов развития технологий, оставляя инициативу властям штатов. В этом контексте особое внимание приковано к Apple. Компания позиционирует свою систему Apple Intelligence как более приватную и безопасную. В последних обновлениях iOS компания упростила создание детских аккаунтов с расширенными функциями родительского контроля.​

Для одних пользователей закрытость экосистемы Apple и её осторожный подход могут показаться недостатком на фоне конкурентов, но для других именно безопасность может стать решающим фактором выбора в эпоху неконтролируемого искусственного интеллекта.​


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN