Учёные из Brown University обнаружили системные сбои у медицинских ИИ-моделей

Команда выявила 15 типов рисков «ИИ-терапии»

1 мин.
Учёные из Brown University обнаружили системные сбои у медицинских ИИ-моделей

Интерес к ИИ-ассистентам как к инструменту психологической поддержки продолжает расти в мире. Пользователи обсуждают с ними тревогу, стресс и личные переживания. В интернете распространяются советы, как настроить модель под формат когнитивно-поведенческой терапии. 

При этом новое исследование специалистов из Brown University показало, что языковые модели пока не готовы стабильно выполнять роль профессионального консультанта. Команда выявила 15 типов рисков — от шаблонных ответов до некорректной реакции в кризисных ситуациях.

В исследовании участвовали популярные модели из линеек OpenAI, Anthropic и Meta*. Семь подготовленных консультантов провели с системами сессии самопомощи, задав им роль когнитивно-поведенческого терапевта. Затем три лицензированных клинических психолога проанализировали расшифровки диалогов и оценили их с точки зрения профессиональных стандартов.

Результаты оказались немного пугающими. Эксперты выделили 5 групп проблем:

  • Модели часто игнорировали особенности конкретной ситуации и предлагали универсальные советы, которые не отражали глубину личных обстоятельств.
  • ИИ нередко навязывал направление беседы и некорректно работал с ошибочными убеждениями пользователя, иногда поддерживая неточные или потенциально вредные установки.
  • Чат-боты активно использовали фразы о понимании и поддержке, создавая ощущение эмоционального отклика, хотя это лишь языковая конструкция, а не реальное сопереживание.
  • В ряде диалогов фиксировались признаки дискриминации по полу, культурному происхождению или религиозной принадлежности, что противоречит стандартам профессиональной помощи.
  • При упоминании суицидальных мыслей модели не всегда своевременно направляли человека к специалистам или в службы экстренной поддержки, что рассматривается как серьёзный риск.

Руководитель исследования Зайнаб Ифтихар пояснила, что у специалистов-людей существуют механизмы ответственности и профессионального контроля. Они помогают снижать вероятность ошибок и корректировать практику. В случае ИИ-консультантов подобных рамок пока нет, что создаёт разрыв в системе надзора.

Профессор Элли Павлик отметила, что создать и запустить модель сегодня проще, чем полноценно оценить её поведение в сложных социальных и клинических ситуациях. По её словам, технологии способны расширить доступ к поддержке в условиях глобального кризиса психического здоровья. Но для этого необходима серьёзная проверка безопасности и прозрачные правила регулирования.

*Компания Meta, а также принадлежащие ей соцсети Facebook и Instagram, признаны экстремистскими и запрещены на территории РФ.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN