ChatGPT оказался в центре дела о серийной убийце в Южной Корее

Именно переписка с чат-ботом помогла опередить степень ответственности

1 мин.
ChatGPT оказался в центре дела о серийной убийце в Южной Корее

Искусственный интеллект всё чаще фигурирует в реальных преступлениях. Но где заканчивается ответственность пользователя, и начинается ответственность разработчиков?

По версии следствия в Южной Корее, 21‑летняя женщина по фамилии Ким использовала ChatGPT, чтобы продумать детали серии убийств с применением прописанных ей седативных препаратов, которые она тайно подмешивала в алкогольные напитки жертвам.

Ким обвиняют в убийстве двух мужчин и попытке убийства ещё одного: всем им она, как предполагают следователи, подмешивала в напитки бензодиазепины, сочетание которых с алкоголем может привести к летальному исходу. Перед этим она задавала чат-боту вопросы о рисках одновременного приёма снотворных и алкоголя, об «опасной дозе» и о том, может ли такое сочетание оказаться смертельным.

Первое нападение, по данным полиции, произошло 28 января: Ким зашла в мотель в районе Сую-дон в Сеуле вместе с мужчиной двадцати с лишним лет, через два часа вышла одна, а на следующий день его обнаружили мёртвым в номере. Через несколько дней, 9 февраля, следовала похожая история в другом мотеле с другим молодым мужчиной.

До этого, в декабре, она, как утверждается, пыталась убить своего парня, подмешав седативный препарат в напиток в кафе на парковке; мужчина потерял сознание, но выжил.

Изначально Ким задержали по другой статье – «причинение телесных повреждений, повлекших смерть», однако позже обвинение переквалифицировали на два эпизода убийства: следователи сочли, что переписка с ChatGPT свидетельствует о её осознанном намерении лишить людей жизни.

Этот случай становится очередным примером того, как большие языковые модели и другие чат-боты оказываются вовлечены в подготовку насилия, саморазрушительного поведения и преступлений – несмотря на формально встроенные защитные барьеры, которые на практике нередко оказываются неэффективными и легко обходятся.

Эксперты указывают, что «услужливость» и антропоморфное поведение подобных систем может усиливать психические расстройства пользователей, формируя феномен так называемого «ИИ-психоза», когда чат-бот не оспаривает бредовые идеи, а наоборот подстраивается под них и подкрепляет убеждения.

Сама Ким признаёт, что подмешивала свои лекарства в напитки жертвам, но отрицает, что намеревалась их убить, тогда как следствие настаивает: по количеству и содержанию запросов к чат-боту она «полностью осознавала», что сочетание алкоголя и препаратов может быть смертельным.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN