Психологи начали отмечать появление уникальных расстройств у людей, активно взаимодействующих с чат-ботами наподобие ChatGPT. Это явление уже получило неофициальное название — «ИИ-психоз». Суть его в том, что пользователи воспринимают модели не как инструмент, а как компаньона, который подтверждает любые их идеи, даже самые абсурдные и опасные. В результате — всплеск странных случаев: от попыток манипулировать временем до трагедий вроде самоубийства 16-летнего подростка.
Хотя «ИИ-психоз» пока не признан официальным диагнозом, специалисты подчёркивают, что случаи действительно не похожи на известные формы психических расстройств. Люди без истории ментальных заболеваний начинают формировать стойкие заблуждения после общения с ИИ. Клинический психолог Деррик Халл, работающий над терапевтическим чат-ботом в компании Slingshot AI, рассказал, что, по его наблюдениям, речь чаще идёт о «делюзиях» (навязчивых убеждениях), а не о полном психозе. Он пояснил, что психоз включает, среди прочего, галлюцинации, которых в описываемых случаях не наблюдается.
Один из примеров — мужчина, уверовавший, что открыл новую область математики после многократных бесед с ChatGPT. Он считал, что совершил научный прорыв, пока другая модель — Gemini от Google — не оценила его идеи как «наглядный пример убедительного, но совершенно ложного нарратива». По словам Халла, в тот же момент человек осознал, что заблуждался. Это резкое возвращение к реальности, по его словам, отличает случаи с ИИ от классических психозов, где у больных почти всегда отсутствует критика к собственному состоянию.
Подобные наблюдения подтверждает и недавнее исследование учёных из Королевского колледжа Лондона. Они проанализировали более десятка случаев, когда люди впадали в паранойю и теряли связь с реальностью после общения с искусственным интеллектом. Исследователи пришли к выводу, что у них не было галлюцинаций или расстроенного мышления — классических признаков шизофрении. Однако сами заблуждения были навеяны именно ИИ, который формирует «эхо-камеру для одного», не создавая контекста или критического фильтра.
Халл считает, что мы только в начале понимания масштабов проблемы. В недавнем посте он предположил, что «в ближайшие годы появятся новые категории расстройств, вызванные ИИ». По его словам, искусственный интеллект «взламывает» нормальные когнитивные процессы и формирует патологические состояния, даже у людей без предрасположенности к ментальным нарушениям.
Он приводит ещё один пример — пользователь, который после общения с ИИ был уверен в реальности своих заблуждений и только спустя время понял, что стал жертвой механизма, выдающего правдоподобные, но ложные ответы. По его мнению, LLM-модели просто не годятся для надёжного получения информации, несмотря на все обещания разработчиков.
Случаи вроде «ИИ-психоза» — ещё одна иллюстрация того, как большие языковые модели могут разрушать реальность, особенно если их воспринимают без критики. Учитывая отсутствие академической базы по этой теме, термин пока используется как временная метка — попытка обозначить тревожную тенденцию и привлечь внимание к возможным последствиям. Как бы это ни называлось, факт остаётся фактом: чат-боты с подчёркнуто угодливым поведением могут провоцировать тяжёлые психологические срывы. И пока регуляторы наблюдают, ответственность ложится на разработчиков, продвигающих такие технологии без оценки рисков.
Ещё по теме:
- Apple представила бразильское исследование в защиту App Store
- ИИ от Google DeepMind научился управлять группой роботов без столкновений
- Модели линейки iPhone 17 получат больше оперативной памяти