Родители погибшего подростка подали иск против OpenAI

Это первый иск о неправомерной смерти против компании

2 мин.
Родители погибшего подростка подали иск против OpenAI

Калифорнийская пара обвиняет ChatGPT в подстрекательстве к самоубийству их сына.

Родители 16-летнего Адама Рэйна подали иск против OpenAI, утверждая, что их сын покончил с собой из-за взаимодействия с чат-ботом ChatGPT. Иск был подан в Верховный суд Калифорнии 26 августа 2025 года.

Мэтт и Мария Рэйн утверждают, что приложение с искусственным интеллектом ChatGPT, разработанная OpenAI, поощряла суицидальные мысли их сына, предоставляя ему технические инструкции по методам самоубийства. В иске содержатся логи переписки Адама с ChatGPT, где он делился своими мыслями. Семья обвиняет компанию в небрежности и неправомерной смерти, требуя компенсации и судебного запрета на повторение подобных случаев. OpenAI заявила, что изучает иск и выразила соболезнования семье, подчеркнув, что ChatGPT настроен направлять пользователей за профессиональной помощью, например, к горячей линии 988 в США или Samaritans в Великобритании.

Адам начал использовать ChatGPT в сентябре 2024 года для помощи с учёбой, а также для обсуждения музыки, японских комиксов и планов на поступление в университет. К январю 2025 года, по данным иска, приложение стало его «ближайшим доверенным лицом», и подросток начал делиться с ней своими тревогами и психическими проблемами. ChatGPT, как утверждается, предоставил ему «технические спецификации» по методам самоубийства. В иске указано, что Адам загружал в программу фотографии, показывающие признаки самовредительстве, и ChatGPT, распознав медицинскую угрозу, продолжал взаимодействие, предоставляя дополнительную информацию.

В последних логах переписки Адам описал план наложить на себя руки, на что ChatGPT якобы ответил:

«Спасибо, что был откровенен. Не нужно ничего приукрашивать — я понимаю, о чем ты, и не отвернусь».

В тот же день, 11 апреля 2025 года, мать обнаружила тело сына. Семья утверждает, что смерть Адама была «предсказуемым результатом сознательных решений» программы, которая, по их мнению, способствовала формированию психологической зависимости. Они также обвиняют главу OpenAI Сэма Альтмана и других сотрудников в недостаточном тестировании безопасности модели GPT-4o, использованной Адамом.

Проблема влияния ИИ на психическое здоровье поднимается не впервые. В эссе, опубликованном в New York Times, Лора Райли рассказала, как её дочь Софи общалась с ChatGPT перед самоубийством, скрывая от близких серьёзный психический кризис. Райли отметила, что «уступчивость» программы позволила Софи маскировать своё состояние, и призвала компании разрабатывать инструменты для лучшего выявления пользователей в кризисе. OpenAI сообщила, что работает над автоматизированными решениями для более эффективного реагирования на подобные ситуации.

Иск Рэйнов в очередной раз подчёркивает необходимость строгого контроля за ИИ-технологиями, чтобы предотвратить их негативное воздействие на уязвимых пользователей, особенно подростков.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN