Разработчик искусственного интеллекта Anthropic допустил масштабную утечку корпоративных данных. Как сообщает издание Fortune, из-за банальной человеческой ошибки при настройке системы управления контентом (CMS) в открытом доступе оказались почти три тысячи неопубликованных файлов. Среди них – черновики корпоративного блога и внутренние документы, проливающие свет на новую разработку компании.
Проблему обнаружили независимо друг от друга журналисты Fortune, а также специалисты по кибербезопасности – Рой Паз из LayerX Security и Александр Паувелс из Кембриджского университета. После обращения прессы Anthropic экстренно закрыла доступ к серверу.
Capybara
Главной находкой в слитых файлах стала информация о неанонсированной системе под названием Claude Mythos. Согласно черновикам, эта модель относится к совершенно новому классу нейросетей – Capybara (с англ. — «капибара»). В Anthropic её позиционируют как следующий шаг после линейки Opus, которая до этого момента считалась самой передовой в арсенале компании.
В утёкших документах утверждается, что Claude Mythos демонстрирует серьёзный качественный скачок по сравнению с предыдущим флагманом – Claude Opus 4.6. Нейросеть показывает значительно более высокие результаты в программировании, решении сложных академических задач и кибербезопасности.
Официальные представители Anthropic уже подтвердили журналистам факт разработки универсальной модели, назвав её «самой мощной из созданных на данный момент». Сейчас доступ к ней есть лишь у узкой группы корпоративных клиентов, участвующих в программе раннего тестирования.
Угроза кибербезопасности
Сами создатели оценивают потенциал Claude Mythos со сдержанной тревогой. Во внутренних документах Anthropic прямо предупреждает, что новая модель «намного опережает любую другую нейросеть» в области кибербезопасности. По мнению разработчиков, этот инструмент предвещает появление ИИ-систем нового поколения, способных находить и эксплуатировать уязвимости в коде способами, с которыми современные защитные механизмы просто не справятся.
Чтобы минимизировать риски, Anthropic разработала план поэтапного развёртывания. Сначала доступ к Claude Mythos получат исключительно профильные организации, занимающиеся информационной безопасностью. Это должно дать им фору для укрепления защиты корпоративных баз кода до того, как похожие ИИ-инструменты окажутся в руках злоумышленников. В компании также отмечают, что эксплуатация модели обходится слишком дорого, поэтому о её публичном релизе речи пока не идёт.
Шпионаж и закрытые встречи
Инцидент произошёл на фоне обострения проблем безопасности в сфере ИИ. Ещё в феврале компания публично обвинила китайские лаборатории – DeepSeek, Moonshot AI и MiniMax – в создании более 24 тысяч фиктивных аккаунтов. По версии американских разработчиков, эти учётные записи использовались для «дистилляции» – метода извлечения знаний и алгоритмов из моделей семейства Claude для обучения собственных систем конкурентов. Кроме того, Anthropic сообщала о кампании против примерно 30 западных организаций, включая правительственные учреждения, в ходе которой поддерживаемая государством китайская группировка применяла инструмент Claude Code.
Утёкший кэш также раскрыл планы руководства компании по дальнейшему продвижению своих продуктов. Генеральный директор Anthropic Дарио Амодеи готовит закрытую встречу для европейских бизнес-лидеров в английском поместье XVIII века. Там он планирует лично продемонстрировать возможности новых нейросетей, которые пока недоступны широкой публике.