В начале апреля 2026 года компания Anthropic анонсировала Claude Mythos Preview – новую языковую модель, которая совершила качественный скачок в программировании и поиске уязвимостей. Нейросеть оказалась настолько эффективной в обнаружении уязвимостей нулевого дня и написании вредоносного кода без участия человека, что разработчики сочли её слишком опасной для открытого релиза. Вместо этого Anthropic запустила Project Glasswing – закрытую инициативу, в рамках которой доступ к модели получили лишь крупные корпорации, такие как Apple, Google, Microsoft и Amazon, чтобы они могли найти и залатать дыры в своих системах до того, как ими воспользуются реальные хакеры.
Однако изоляция продлилась недолго. Как сообщает агентство Bloomberg со ссылкой на внутренние документы и информированный источник, небольшая группа пользователей сумела получить неавторизованный доступ к Claude Mythos в тот же день, когда модель была официально представлена.
По данным журналистов, утечка произошла не через основные серверы Anthropic, а через инфраструктуру третьей стороны. Один из участников закрытого форума в Discord оказался сотрудником компании-подрядчика, работающей с Anthropic. Воспользовавшись своими корпоративными правами и стандартными инструментами кибербезопасности, эта группа смогла вычислить сетевое расположение новой модели. Они поняли, где искать Mythos, проанализировав технические особенности публикации предыдущих нейросетей компании.
Источник Bloomberg на условиях анонимности предоставил журналистам скриншоты и провёл демонстрацию работы с засекреченным алгоритмом в реальном времени.
Цели использования нейросети
Несмотря на тревожный статус Claude Mythos как «самой опасной ИИ-модели», последствия инцидента пока выглядят не столь угрожающими. Источник утверждает, что участники сообщества регулярно взаимодействуют с нейросетью, однако не применяют её для написания вредоносного кода или планирования кибератак. Их мотивация — исключительно исследовательский интерес и желание первыми протестировать новые технологии.
Тем не менее сам факт того, что инструмент такого уровня попал в руки посторонних, вызывает серьёзные вопросы к мерам безопасности внутри индустрии.
Реакция Anthropic
Представители Anthropic оперативно отреагировали на публикацию. В официальном заявлении подчёркивается, что внутреннее расследование инцидента уже ведётся. В компании подтвердили: несанкционированный доступ, судя по всему, был получен через систему одного из сторонних подрядчиков. При этом разработчики настаивают, что на данный момент нет никаких доказательств взлома или компрометации собственных серверов компании.
Этот инцидент наглядно демонстрирует ключевую проблему современного рынка искусственного интеллекта. Даже самые строгие протоколы и создание элитных оборонительных альянсов вроде Project Glasswing не гарантируют полной защиты технологий, если в цепочке партнёров остаются уязвимые звенья.