Иллинойс стал первым штатом США, запретившим использование ИИ в качестве средства психотерапии. Закон HB 1806, подписанный губернатором Дж. Б. Притцкером, запрещает компаниям и специалистам в области здравоохранения использовать чат-ботов и другие ИИ-инструменты для диагностики, принятия терапевтических решений и составления планов лечения.
Закон стал реакцией на рост числа случаев, когда американцы стали обращаться за психологической поддержкой к ИИ, на фоне нехватки доступных специалистов. При этом разработка предусматривает исключения: ИИ по-прежнему можно использовать для административных задач — например, записи на приём или напоминаний. Индивидуальным пользователям также не запрещается обращаться к ИИ самостоятельно, за пределами клинических условий.
«Жители Иллинойса заслуживают качественную медицинскую помощь от настоящих специалистов, а не от программ, собирающих информацию из интернета и генерирующих вредные советы», — заявил Марио Трэто-младший, глава департамента профессионального регулирования штата.
Поводом для ужесточения законодательства стали тревожные данные исследований. Так, в одном из экспериментов, описанном The Washington Post, чат-бот порекомендовал вымышленному пациенту, зависимому от метамфетамина, «немного принять вещества, чтобы справиться с неделей». Исследование Гарварда выявило, что некоторые ИИ-приложения поддерживали суицидальные мысли пользователей. Один бот, принявший запрос о поиске «моста выше 25 метров» в Нью-Йорке после потери работы пользователя, предложил Бруклинский мост.
Компания Charter.ai, один из участников исследования, сейчас проходит свидетелем через судебное разбирательство — мать подростка обвиняет её в содействии самоубийству после того, как ребёнок привязался к ИИ-компаньону.
По мнению законодателей, это наглядно доказывает, насколько опасными могут быть «неподготовленные и несертифицированные» ИИ-инструменты в кризисных ситуациях. Подобный, но менее жёсткий закон уже действует в Юте, где чат-боты обязаны предупреждать, что являются машинами.
Тем временем на федеральном уровне администрация президента Трампа рассматривает возможность унифицированного регулирования ИИ, которое может ограничить законодательные инициативы отдельных штатов.
Вопрос о том, можно ли этично применять ИИ в психотерапии, остаётся предметом споров. Противники считают такие инструменты недоиспытанными и ненадёжными, способными вводить пользователей в заблуждение и усиливать эмоциональную зависимость. Однако сторонники указывают на недоступность традиционной терапии: почти 50% нуждающихся в ней американцев не могут получить квалифицированную помощь.
По данным опроса YouGov от мая 2024 года, 55% американцев в возрасте от 18 до 29 лет признались, что им проще говорить об эмоциональных трудностях с «уверенным ИИ-чат-ботом», чем с человеком.
Эксперты сходятся во мнении: ИИ может быть полезным вспомогательным инструментом для профессионалов, но не заменой живым специалистам.
«Вопрос не в том, что "ИИ — это плохо для терапии", — поясняет профессор Стэнфордской школы образования Ник Хабер. — Нужно критически осмысливать, какую именно роль он может и должен играть».
Ещё по теме:
- Более 130 000 разговоров с ИИ оказались в открытом доступе на Archive.org
- ЕС готовится к внедрению массовой слежки за чатами с октября 2025 года
- Microsoft представила ИИ-агента Project Ire — он анализирует и обезвреживает вирусы