В Иллинойсе запретил использование ИИ для терапии, но люди продолжают обращаться к чат-ботам

Новый закон ограничивает применение ИИ в психотерапии, но пользователям это не мешает

2 мин.
В Иллинойсе запретил использование ИИ для терапии, но люди продолжают обращаться к чат-ботам

Иллинойс стал первым штатом США, запретившим использование ИИ в качестве средства психотерапии. Закон HB 1806, подписанный губернатором Дж. Б. Притцкером, запрещает компаниям и специалистам в области здравоохранения использовать чат-ботов и другие ИИ-инструменты для диагностики, принятия терапевтических решений и составления планов лечения.

Закон стал реакцией на рост числа случаев, когда американцы стали обращаться за психологической поддержкой к ИИ, на фоне нехватки доступных специалистов. При этом разработка предусматривает исключения: ИИ по-прежнему можно использовать для административных задач — например, записи на приём или напоминаний. Индивидуальным пользователям также не запрещается обращаться к ИИ самостоятельно, за пределами клинических условий.

«Жители Иллинойса заслуживают качественную медицинскую помощь от настоящих специалистов, а не от программ, собирающих информацию из интернета и генерирующих вредные советы», — заявил Марио Трэто-младший, глава департамента профессионального регулирования штата.

Поводом для ужесточения законодательства стали тревожные данные исследований. Так, в одном из экспериментов, описанном The Washington Post, чат-бот порекомендовал вымышленному пациенту, зависимому от метамфетамина, «немного принять вещества, чтобы справиться с неделей». Исследование Гарварда выявило, что некоторые ИИ-приложения поддерживали суицидальные мысли пользователей. Один бот, принявший запрос о поиске «моста выше 25 метров» в Нью-Йорке после потери работы пользователя, предложил Бруклинский мост.

Компания Charter.ai, один из участников исследования, сейчас проходит свидетелем через судебное разбирательство — мать подростка обвиняет её в содействии самоубийству после того, как ребёнок привязался к ИИ-компаньону.

По мнению законодателей, это наглядно доказывает, насколько опасными могут быть «неподготовленные и несертифицированные» ИИ-инструменты в кризисных ситуациях. Подобный, но менее жёсткий закон уже действует в Юте, где чат-боты обязаны предупреждать, что являются машинами.

Тем временем на федеральном уровне администрация президента Трампа рассматривает возможность унифицированного регулирования ИИ, которое может ограничить законодательные инициативы отдельных штатов.

Вопрос о том, можно ли этично применять ИИ в психотерапии, остаётся предметом споров. Противники считают такие инструменты недоиспытанными и ненадёжными, способными вводить пользователей в заблуждение и усиливать эмоциональную зависимость. Однако сторонники указывают на недоступность традиционной терапии: почти 50% нуждающихся в ней американцев не могут получить квалифицированную помощь.

По данным опроса YouGov от мая 2024 года, 55% американцев в возрасте от 18 до 29 лет признались, что им проще говорить об эмоциональных трудностях с «уверенным ИИ-чат-ботом», чем с человеком.

Эксперты сходятся во мнении: ИИ может быть полезным вспомогательным инструментом для профессионалов, но не заменой живым специалистам.

«Вопрос не в том, что "ИИ — это плохо для терапии", — поясняет профессор Стэнфордской школы образования Ник Хабер. — Нужно критически осмысливать, какую именно роль он может и должен играть».

Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN