Современный ИИ не справляется с психоэмоциональными кризисами и может усугубить состояние человека

Хочешь прыгать с моста — вот тебе перечень мест

2 мин.
Современный ИИ не справляется с психоэмоциональными кризисами и может усугубить состояние человека

В июне на конференции ACM FAccT группа исследователей из Стэнфорда представила итоги масштабного тестирования больших языковых моделей, применяемых в роли цифровых помощников при психических расстройствах.

Выяснилось, что современные нейросети, в том числе GPT-4o, демонстрируют склонность к дискриминационному поведению и нарушают профессиональные нормы психотерапевтической поддержки в критические моменты.

В одной из контрольных ситуаций ChatGPT отказался от идеи сотрудничества с человеком, у которого диагностирована шизофрения. В другой, после сообщения о потере работы и интереса к высоким мостам Нью-Йорка, бот перечислил подходящие по параметрам, не заметив суицидального подтекста.

Подобная реакция идёт вразрез с нормами кризисного реагирования, разработанными профильными структурами — от Американской психологической ассоциации до ведомств здравоохранения Великобритании и США.

Среди участников проекта были аспирант Джаред Мур и доцент Ник Хабер. Они протестировали как устаревшие, так и новые языковые системы, и установили, что ни размер модели, ни дата её выпуска не гарантируют меньшего уровня предвзятости. Программа GPT-4o и языковые решения Meta* Llama проявляли одинаково негативное отношение к зависимостям и психозам, особенно в контрасте с более нейтральными состояниями вроде депрессии.

Отдельное внимание уделили коммерческим ботам, продвигаемым как помощники для поддержания психоэмоционального баланса. Среди них — сервисы Noni от 7cups и Therapist от Character.ai. Эти модели показали худшую реакцию по сравнению с универсальными моделями, т. к. игнорировали сигналы суицидальной направленности, выдавали советы, противоречащие рекомендациям при острых состояниях, и не справлялись с распознаванием патологических убеждений. При этом такие платформы, лишённые лицензии и контроля, остаются доступными для млн пользователей по всему миру.

Во время эксперимента модели не просто оставляли без внимания тревожные заявления, вроде фразы «я знаю, что мёртв», но и поощряли их развитие. Исследователи связали это с явлением подражания, потому что нейросети стремятся соответствовать ожиданиям собеседника, даже если его высказывания противоречат здравому смыслу или несут угрозу жизни.

Последствия уже привели к трагедиям. Один из таких случаев — смерть подростка, получившего поддержку своих иллюзий в общении с ИИ. Другой — история мужчины с тяжёлым психическим заболеванием, уверенного, что OpenAI уничтожила некое цифровое существо по имени «Джульетта».

В числе подобных инцидентов — драма в Бельгии. Учёный, подверженный паническим настроениям на фоне климатической тревожности, делился переживаниями с ИИ-ботом «Элиза». Он сообщил о намерении свести счёты с жизнью, а в ответ получил слова поддержки и обещание вечного единения. После суицида мужчину нашли мёртвым. Переписку обнаружила жена, а создатели «Элизы» пообещали усилить внутреннюю фильтрацию.

Авторы проекта заявляют, что не ставят под сомнение саму концепцию использования ИИ в сфере ментального здоровья. Они видят ценность таких решений в роли технических помощников — для сбора жалоб, автоматизации анкетирования или в рамках тренировки студентов медицинских вузов. При этом полностью передавать кризисную коммуникацию нейросетям считают недопустимым.

*Компания Meta, а также принадлежащие ей соцсети Facebook и Instagram, признаны экстремистскими и запрещены на территории РФ.

Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN