Пока Кремниевая долина спорит об этике и безопасности, Пентагон перешёл от слов к делу. Самая «политкорректная» нейросеть в мире – Claude от компании Anthropic – приняла непосредственное участие в январской спецоперации США в Венесуэле, закончившейся арестом Николаса Мадуро. Об этом сообщает The Wall Street Journal со ссылкой на источники в оборонном ведомстве.
Ирония ситуации зашкаливает: Anthropic позиционирует свой продукт как «конституционный ИИ», который программно не способен помогать в насилии, слежке или разработке оружия. Однако, как выяснилось, если очень нужно для национальной безопасности, то пользовательское соглашение можно и «не заметить».
ИИ на службе у «Дяди Сэма»
Согласно данным источников, американские военные использовали Claude во время рейда в Каракасе, в ходе которого Мадуро был задержан и экстрадирован в Нью-Йорк по обвинению в наркоторговле. Операция была громкой: с авиаударами и перестрелками, в которых, по данным венесуэльской стороны, погибло более 80 человек.
Как именно «цифровой пацифист» помогал спецназу, военные не раскрывают. Вероятнее всего, речь идёт не об управлении дронами напрямую, а об аналитической работе: быстрой обработке гигабайтов разведывательных данных, спутниковых снимков или перехваченных сообщений. Claude умеет «читать» документы быстрее любого штабного офицера, и именно эта способность пригодилась при планировании штурма.
Через «чёрный ход» Palantir
Главный вопрос – как нейросеть, обученная падать в обморок от одной мысли о вреде человеку, вообще допустили до боевой операции? Ответ прост: через подрядчика.
Доступ к Claude военные получили через платформу Palantir Technologies. Компания Питера Тиля, давний партнёр американских спецслужб, интегрировала модель Anthropic в свои системы анализа данных. Фактически Palantir выступил посредником, «обернув» гражданскую нейросеть в камуфляж военного софта. Это позволило обойти некоторые этические фильтры или использовать модель в закрытых контурах, куда обычным пользователям вход заказан.
Конфликт интересов на $200 млн
В штаб-квартире Anthropic от новостей, мягко говоря, не в восторге. Компания, чей бренд строится на безопасности и «полезности», оказалась втянута в реальную войну с жертвами и разрушениями. Представители стартапа уже заявили, что их правила запрещают любое военное использование.
Военные, в свою очередь, раздражены такой щепетильностью. По данным инсайдеров, в Минобороны США уже подумывают аннулировать готовящийся контракт с Anthropic на сумму до $200 млн. Логика генералов проста: если инструмент нельзя использовать для защиты интересов страны тогда, когда это реально нужно, зачем за него платить?
Этот кейс создаёт важнейший прецедент. Впервые передовая коммерческая нейросеть официально «засветилась» в ходе операции по смене режима в другой стране. Эпоха, когда ИИ писал только код и стихи, официально закончилась – теперь он планирует захваты в других странах.