OpenAI, Google и Anthropic объединились для борьбы с кражей ИИ-технологий Китаем

Американские разработчики обвиняют китайские компании в недобросовестном копировании передовых нейросетей

3 мин.
OpenAI, Google и Anthropic объединились для борьбы с кражей ИИ-технологий Китаем

OpenAI, Anthropic и Google начали совместную кампанию против китайских конкурентов. Главная цель – пресечь извлечение данных из передовых американских ИИ-моделей, которое помогает разработчикам из КНР получать преимущество в глобальной технологической гонке.

По информации источников, компании обмениваются данными через Frontier Model Forum – отраслевую некоммерческую организацию, созданную этой тройкой совместно с Microsoft ещё в 2023 году. Их задача – выявлять попытки так называемой «враждебной дистилляции», которые прямо нарушают пользовательские соглашения.

Столь редкое для конкурентов сотрудничество подчёркивает масштаб проблемы. Американские корпорации опасаются, что пользователи (в первую очередь из Китая) создают дешёвые копии их продуктов, что не только уводит клиентов, но и формирует серьёзную угрозу национальной безопасности. По оценкам американских чиновников, несанкционированное копирование ежегодно обходится лабораториям Кремниевой долины в миллиарды долларов недополученной прибыли.

В OpenAI подтвердили своё участие в обмене информацией через Frontier Model Forum. В компании сослались на недавний меморандум для Конгресса США, где китайская DeepSeek обвиняется в попытке «выехать за счёт возможностей, разработанных OpenAI и другими ведущими американскими лабораториями». Google, Anthropic и сам Frontier Model Forum от комментариев отказались.

Что такое дистилляция?

Это метод, при котором более старая и мощная ИИ-модель («учитель») используется для обучения новой («ученика»), чтобы та переняла возможности оригинальной системы. Обычно это обходится в разы дешевле, чем создание нейросети с нуля. Сами разработчики часто поощряют дистилляцию, когда речь идёт о создании компактных версий их собственных алгоритмов или о неконкурентных проектах сторонних программистов.

Однако использование этого метода третьими лицами – особенно из стран вроде Китая или России – вызывает серьёзные споры. Речь идёт о несанкционированном копировании проприетарных разработок. Американские ИИ-лаборатории предупреждают: иностранные государства могут использовать дистилляцию для создания нейросетей, лишённых «предохранителей» – например, встроенных запретов на помощь в разработке биологического оружия или смертельных вирусов.

Большинство моделей от китайских лабораторий имеют открытые веса (open-weight), то есть архитектура базовой системы публично доступна. Пользователи могут скачивать и запускать ИИ на собственных серверах, что делает их использование существенно дешевле. Это бьёт по экономике американских компаний, которые делают ставку на закрытый код и платную подписку, чтобы окупить сотни миллиардов долларов, вложенных в дата-центры и инфраструктуру.

Впервые проблема привлекла широкое внимание в январе 2025 года, когда DeepSeek неожиданно выпустила модель R1, потрясшую мировую ИИ-индустрию. Вскоре после этого Microsoft и OpenAI начали расследование, чтобы выяснить, не использовал ли китайский стартап данные из американских систем для создания своей.

Уже в феврале OpenAI предупредила американских законодателей, что DeepSeek продолжает применять всё более изощрённые тактики извлечения результатов из моделей США, несмотря на усиленную защиту. В обращении к Специальному комитету Палаты представителей по Китаю OpenAI заявила, что DeepSeek полагается на дистилляцию для разработки новой версии своего прорывного чат-бота.

Практика обмена данными между ИИ-гигантами напоминает стандарты кибербезопасности, где компании регулярно делятся информацией об атаках и тактиках хакеров. Объединив усилия, разработчики надеются эффективнее выявлять кражи, находить виновных и блокировать доступ нарушителям.

Администрация президента США Дональда Трампа уже выразила готовность поддержать эту инициативу. В прошлогоднем «Плане действий в области ИИ» предлагалось создать специальный аналитический центр для обмена информацией и противодействия подобным угрозам.

Однако пока этот обмен ограничен: компании не уверены, какой объём данных можно раскрывать без нарушения антимонопольного законодательства США. По словам источников, индустрия ждёт чётких разъяснений от американского правительства, чтобы эффективнее противостоять конкурентам из Китая.

С момента выхода DeepSeek R1 в начале 2025 года дистилляция остаётся главной головной болью для американских ИТ-корпораций. В Китае продолжают появляться всё более мощные ИИ-модели, и рынок замер в ожидании очередного крупного обновления от DeepSeek.

Ещё в прошлом году компания Anthropic закрыла доступ к своему чат-боту Claude для китайских компаний, а в феврале уличила три лаборатории из КНР (DeepSeek, Moonshot и MiniMax) в незаконном извлечении возможностей модели с помощью дистилляции. Позже в Anthropic заявили, что эта угроза «выходит за рамки одной компании или региона» и напрямую угрожает нацбезопасности из-за отсутствия этических ограничений в скопированных алгоритмах.

Со своей стороны, Google также опубликовала отчёт о росте числа попыток извлечения данных из их нейросетей. Пока американская тройка не представила точных доказательств того, какая именно доля китайских ИИ-инноваций строится на дистилляции. Однако разработчики отмечают, что масштаб атак можно объективно оценить по колоссальным объёмам автоматических запросов к их системам.

Мы в Telegram, на Дзен, в Google News и YouTube



ePN