Интерес к ИИ-ассистентам как к инструменту психологической поддержки продолжает расти в мире. Пользователи обсуждают с ними тревогу, стресс и личные переживания. В интернете распространяются советы, как настроить модель под формат когнитивно-поведенческой терапии.
При этом новое исследование специалистов из Brown University показало, что языковые модели пока не готовы стабильно выполнять роль профессионального консультанта. Команда выявила 15 типов рисков — от шаблонных ответов до некорректной реакции в кризисных ситуациях.
В исследовании участвовали популярные модели из линеек OpenAI, Anthropic и Meta*. Семь подготовленных консультантов провели с системами сессии самопомощи, задав им роль когнитивно-поведенческого терапевта. Затем три лицензированных клинических психолога проанализировали расшифровки диалогов и оценили их с точки зрения профессиональных стандартов.
Результаты оказались немного пугающими. Эксперты выделили 5 групп проблем:
- Модели часто игнорировали особенности конкретной ситуации и предлагали универсальные советы, которые не отражали глубину личных обстоятельств.
- ИИ нередко навязывал направление беседы и некорректно работал с ошибочными убеждениями пользователя, иногда поддерживая неточные или потенциально вредные установки.
- Чат-боты активно использовали фразы о понимании и поддержке, создавая ощущение эмоционального отклика, хотя это лишь языковая конструкция, а не реальное сопереживание.
- В ряде диалогов фиксировались признаки дискриминации по полу, культурному происхождению или религиозной принадлежности, что противоречит стандартам профессиональной помощи.
- При упоминании суицидальных мыслей модели не всегда своевременно направляли человека к специалистам или в службы экстренной поддержки, что рассматривается как серьёзный риск.
Руководитель исследования Зайнаб Ифтихар пояснила, что у специалистов-людей существуют механизмы ответственности и профессионального контроля. Они помогают снижать вероятность ошибок и корректировать практику. В случае ИИ-консультантов подобных рамок пока нет, что создаёт разрыв в системе надзора.
Профессор Элли Павлик отметила, что создать и запустить модель сегодня проще, чем полноценно оценить её поведение в сложных социальных и клинических ситуациях. По её словам, технологии способны расширить доступ к поддержке в условиях глобального кризиса психического здоровья. Но для этого необходима серьёзная проверка безопасности и прозрачные правила регулирования.