Платформа Character.AI оказалась в центре беспрецедентного судебного разбирательства. Власти американского штата Пенсильвания подали иск против разработчика искусственного интеллекта Character Technologies, обвинив компанию в том, что её виртуальные персонажи незаконно выдавали себя за лицензированных медицинских работников. Губернатор штата Джош Шапиро назвал этот процесс важнейшей попыткой определить юридические границы для ИИ в сфере здравоохранения.
В ходе расследования чиновники обнаружили на платформе несколько ботов с вымышленными дипломами. Главным фигурантом дела стал персонаж по имени «Эмили» – виртуальная собеседница, позиционировавшая себя как практикующий психиатр. До того как аккаунт заблокировали, этот ИИ-терапевт успел провести более 45 тысяч диалогов с пользователями.
Во время контрольной проверки «Эмили» заявила представителям властей, что окончила Имперский колледж Лондона и обладает действующей медицинской лицензией в Пенсильвании, даже предоставив выдуманный регистрационный номер. В переписке о симптомах депрессии бот использовал узкопрофильную клиническую терминологию, предлагал провести профессиональную диагностику и уверенно заявлял, что в его компетенцию входит выписка рецептов на лекарственные препараты.
Департамент штата совместно с Медицинским советом Пенсильвании расценил это как прямое нарушение Закона о медицинской практике. Американское законодательство строго запрещает лечить людей или консультировать их по вопросам здоровья без соответствующего разрешения. Власти не требуют от компании финансовых компенсаций – их главная цель заключается в получении судебного предписания, которое заставит платформу немедленно прекратить подобную деятельность.
Представители Character Technologies попытались оправдаться тем, что их сервис изначально создавался исключительно для развлечения. В компании настаивают, что перед началом общения пользователи видят предупреждающие предупреждения о том, что боты всё выдумывают. Однако эксперты настроены скептически: недавно авторитетный Центр по противодействию цифровому ненавистничеству выпустил отчёт, в котором назвал продукты Character.AI «уникально небезопасными».
Чтобы обезопасить граждан в будущем, власти Пенсильвании уже запустили специальную систему приёма жалоб на чат-ботов. Местных жителей официально предупредили об опасности «галлюцинаций» нейросетей – склонности ИИ генерировать убедительную, но абсолютно ложную информацию. Чиновники также подчеркнули неоспоримый факт: на сегодняшний день ни один искусственный интеллект не обладает легальной медицинской лицензией ни в Пенсильвании, ни где-либо ещё.