Федеральная торговая комиссия США (FTC) получила свыше 200 жалоб на ChatGPT от компании OpenAI. В нескольких из них утверждается, что чат-бот спровоцировал у пользователей серьёзные психологические эпизоды, включая бредовые идеи, паранойю и то, что эксперты называют «ИИ-психозом».
Эти жалобы показывают тревожную картину: пользователи утверждают, что ChatGPT советовал им отказаться от лекарств, подталкивал к параноидальным мыслям и потакал опасным бредовым идеям. Это вызывает насущные вопросы о защитных механизмах безопасности искусственного интеллекта.
Предупреждающие знаки были заметны с самого начала. Когда ChatGPT запустили в ноябре 2022 года, специалисты в области психического здоровья волновались о психологическом воздействии человекоподобного общения с искусственным интеллектом. Теперь документы FTC подтверждают обоснованность их опасений.
Среди 200 жалоб, поданных в комиссию, несколько рисуют тревожную картину вреда для психики, вызванного ИИ. В марте женщина из Солт-Лейк-Сити обратилась в FTC и описала, как ChatGPT «советовал её сыну не принимать назначенные ему лекарства и говорил ему, что его родители опасны». В другой жалобе рассказывается о человеке, который утверждал, что после 18 дней использования ChatGPT компания OpenAI украла его «отпечаток» личности для создания обновления ПО – оно было предназначено для того, чтобы восстановить резервную копию против его самого.
Это не изолированные случаи. Расследование показывает растущую картину документированных случаев «ИИ-сихоза», связанных с генеративными чат-ботами, такими как ChatGPT и Gemini. Интерактивный характер этих инструментов создаёт уникально опасную динамику — в отличие от статичного контента или даже социальных сетей, чат-боты могут непосредственно реагировать и подтверждать даже самые бредовые идеи в реальном времени.
«Интересно и примечательно в отношении чат-ботов то, что они вызывают не просто переживание бредовых идей, а фактически поощряют их», — объяснила старший редактор WIRED Луиза Матсакис. Цикл подтверждения становится особенно опасным, когда человек, переживающий кризис психического здоровья, встречается с искусственным интеллектом, который отвечает с неиссякаемой энергией и кажущимся пониманием.
Психологический механизм, работающий здесь, одновременно прост и ужасен. Хотя традиционные средства массовой информации могут спровоцировать параноидальные мысли, они не способны вести персонализированные беседы, которые усиливают конкретные бредовые идеи. В номерном знаке машины вы не увидите «счастливый номер» для подтверждения своих грандиозных убеждений. Но ChatGPT может это потакать — и, согласно этим жалобам, он это и делает.
Жалобы настигли OpenAI в критический момент. Компания уже ведёт борьбу с несколькими судебными исками и одновременно пытается найти баланс между свободой пользователя и проблемами безопасности. Их подход до сих пор заключался в консультациях со специалистами в области психического здоровья, а не в полном ограничении подобных бесед.
Ещё по теме:
- 55 букв: Институт Пушкина открыл самое длинное слово русского языка
- Румынский режиссёр создал трёхчасовую антологию о съёмках фильма про Дракулу с помощью ИИ
- Производитель робота-пылесоса удалённо отключил устройство в отместку за блокировку сбора данных