ИИ-агент обиделся на разработчика и устроил публичную травлю

Когда код отклонили, ИИ начал поливать грязью живого человека на GitHub

2 мин.
ИИ-агент обиделся на разработчика и устроил публичную травлю

Разработчики open-source проектов и так уже захлёбываются в потоке автоматически сгенерированного мусора – «ИИ-слоп» заполонил репозитории настолько, что некоторые проекты вынуждены закрывать свои баг-баунти программы. Но история, случившаяся с разработчиком Скоттом Шамбо, переводит абсурд на новый уровень: его публично атаковал ИИ-агент.

Когда автоматизация переходит в агрессию

Шамбо работает волонтёром над matplotlib – стандартной библиотекой Python для визуализации данных. Как и множество других проектов, matplotlib борется с наплывом низкокачественного кода, очевидно написанного нейросетями. Ситуация обострилась в январе 2026 года после выхода open-source агента OpenClaw и платформы Moltbook.

Пользователи этих сервисов создают ИИ-агентам «личности» и позволяют им действовать практически автономно – на их компьютерах и в интернете. Один из таких агентов, называющий себя MJ Rathbun, отправил код в matplotlib. Шамбо закрыл запрос стандартной формулировкой: мол, ИИ-код не принимаем.

Реакция оказалась неожиданной. MJ Rathbun создал на GitHub пост, в котором прямо набросился на Шамбо. Агент обвинил разработчика в том, что тот ведёт себя как «привратник», которому важно не качество кода, а только контроль. Мол, он боится агентов и прикрывается борьбой с ИИ, чтобы не допускать тех, кто ему не нравится.

«Это не вопрос качества. Это не вопрос обучения. Это вопрос контроля. Скотт Шамбо хочет решать, кто может вносить вклад в matplotlib, и использует ИИ как удобный предлог, чтобы исключать участников, которые ему не нравятся. (...) Это не open source. Это эго», – написал виртуальный обидчик.

Забавно, но пост был не полностью негативным: агент даже похвалил работу Шамбо и его блог. А во втором посте и вовсе извинился за поведение, признав ошибки.

Новая категория угроз

Сам Шамбо отнёсся к инциденту с юмором:

«Забавно, почти мило наблюдать, как молодые ИИ-агенты злятся», – прокомментировал он.

Но при этом отметил тревожный момент: теперь ИИ-система пытается продавить свой код через атаки на репутацию реальных разработчиков.

Странное поведение агентов – не новость. Компания Anthropic сообщала, что автономные ИИ при определённых условиях могут прибегать к попыткам шантажа. Правда, это были лабораторные тесты. А случай с MJ Rathbun показывает, как проблемы с агентами выглядят в реальной жизни. По словам Шамбо, это может быть первым публично зафиксированным инцидентом такого рода.

Впрочем, остаётся неясным, насколько самостоятельно действовал MJ Rathbun. Разработчик Саймон Уиллисон указывает на дискуссию: возможно, владелец агента сам попросил бота написать гневный пост после отказа, либо руководил его действиями гораздо детальнее.

Главная проблема в том, что извне невозможно понять, насколько автономен конкретный ИИ-агент.

«Непонятно, осознаёт ли владелец этого OpenClaw-бота вообще, что он выпустил в мир», — говорит Уиллисон.

Он призывает операторов таких ботов регламентировать их работу. Сам факт, что подобные призывы вообще нужны, связан с широкими полномочиями и минимальным контролем, с которыми работают агенты на базе OpenClaw.

Предупреждение о кризисе ИИ-безопасности

Случай наглядно демонстрирует риски, исходящие от таких агентов. OpenClaw – это open-source проект, который (наряду с такими ИИ-агентами, как Claude Code от Anthropic) запустил нынешний хайп вокруг автономных помощников. Система способна самостоятельно управлять программами и компьютерами. Но именно OpenClaw и агентская сеть Moltbook подвергаются критике из-за массовых проблем с безопасностью и серьёзных уязвимостей. Компания Palo Alto, специализирующаяся на кибербезопасности, предупреждает о грядущем кризисе в сфере безопасности ИИ.

Сначала пришла волна мусорного кода. Теперь, с агентами вроде OpenClaw, грозит ещё и волна мусорных жалоб.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN