Утечка из Anthropic раскрыла детали новой флагманской нейросети Claude Mythos

Компания случайно открыла доступ к документам о своей самой мощной и потенциально опасной языковой модели

2 мин.
Утечка из Anthropic раскрыла детали новой флагманской нейросети Claude Mythos

Разработчик искусственного интеллекта Anthropic допустил масштабную утечку корпоративных данных. Как сообщает издание Fortune, из-за банальной человеческой ошибки при настройке системы управления контентом (CMS) в открытом доступе оказались почти три тысячи неопубликованных файлов. Среди них – черновики корпоративного блога и внутренние документы, проливающие свет на новую разработку компании.

Проблему обнаружили независимо друг от друга журналисты Fortune, а также специалисты по кибербезопасности – Рой Паз из LayerX Security и Александр Паувелс из Кембриджского университета. После обращения прессы Anthropic экстренно закрыла доступ к серверу.

Capybara

Главной находкой в слитых файлах стала информация о неанонсированной системе под названием Claude Mythos. Согласно черновикам, эта модель относится к совершенно новому классу нейросетей – Capybara (с англ. — «капибара»). В Anthropic её позиционируют как следующий шаг после линейки Opus, которая до этого момента считалась самой передовой в арсенале компании.

В утёкших документах утверждается, что Claude Mythos демонстрирует серьёзный качественный скачок по сравнению с предыдущим флагманом – Claude Opus 4.6. Нейросеть показывает значительно более высокие результаты в программировании, решении сложных академических задач и кибербезопасности.​

Официальные представители Anthropic уже подтвердили журналистам факт разработки универсальной модели, назвав её «самой мощной из созданных на данный момент». Сейчас доступ к ней есть лишь у узкой группы корпоративных клиентов, участвующих в программе раннего тестирования.

Угроза кибербезопасности

Сами создатели оценивают потенциал Claude Mythos со сдержанной тревогой. Во внутренних документах Anthropic прямо предупреждает, что новая модель «намного опережает любую другую нейросеть» в области кибербезопасности. По мнению разработчиков, этот инструмент предвещает появление ИИ-систем нового поколения, способных находить и эксплуатировать уязвимости в коде способами, с которыми современные защитные механизмы просто не справятся.

Чтобы минимизировать риски, Anthropic разработала план поэтапного развёртывания. Сначала доступ к Claude Mythos получат исключительно профильные организации, занимающиеся информационной безопасностью. Это должно дать им фору для укрепления защиты корпоративных баз кода до того, как похожие ИИ-инструменты окажутся в руках злоумышленников. В компании также отмечают, что эксплуатация модели обходится слишком дорого, поэтому о её публичном релизе речи пока не идёт.

Шпионаж и закрытые встречи

Инцидент произошёл на фоне обострения проблем безопасности в сфере ИИ. Ещё в феврале компания публично обвинила китайские лаборатории – DeepSeek, Moonshot AI и MiniMax – в создании более 24 тысяч фиктивных аккаунтов. По версии американских разработчиков, эти учётные записи использовались для «дистилляции» – метода извлечения знаний и алгоритмов из моделей семейства Claude для обучения собственных систем конкурентов. Кроме того, Anthropic сообщала о кампании против примерно 30 западных организаций, включая правительственные учреждения, в ходе которой поддерживаемая государством китайская группировка применяла инструмент Claude Code.​​

Утёкший кэш также раскрыл планы руководства компании по дальнейшему продвижению своих продуктов. Генеральный директор Anthropic Дарио Амодеи готовит закрытую встречу для европейских бизнес-лидеров в английском поместье XVIII века. Там он планирует лично продемонстрировать возможности новых нейросетей, которые пока недоступны широкой публике.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN