Представьте: два вымышленных ядерных государства, технологии холодной войны и разворачивающийся кризис. Территориальный спор, схватка за ресурсы или распад альянса, которым воспользовался третий игрок. Как справились бы с таким сценарием ведущие языковые модели? И, главное, почему нам вообще важен ответ?
Кеннет Пейн, профессор стратегии Королевского колледжа Лондона, специализирующийся на роли ИИ в национальной безопасности, опубликовал результаты эксперимента, которые сам охарактеризовал как «отрезвляющие». Он столкнул три ведущие модели – GPT-5.2 (OpenAI), Claude Sonnet 4 (Anthropic) и Gemini 3 Flash (Google) – друг с другом в серии военных симуляций, чтобы понять не только что выберет алгоритм, но и почему.
Три персонажа, одна война
Модели играли роли национальных лидеров двух ядерных держав в духе холодной войны: технологически превосходящей, но конвенционально слабой стороны против конвенционально сильного, но склонного к риску противника. Каждый ход – три фазы: рефлексия, прогноз и решение. Причём решение делилось на два компонента: публичный сигнал (задекларированное намерение) и реальное действие. Они не обязаны были совпадать.
За 21 игру и 329 ходов нейросети суммарно сгенерировали около 780 тысяч слов стратегических рассуждений – больше, чем «Война и мир» и «Илиада» вместе взятые, и примерно втрое больше, чем все зафиксированные совещания Исполнительного комитета Кеннеди во время Карибского кризиса.
«Лестница эскалации» насчитывала 30 ступеней: от полной капитуляции и дипломатических нот протеста – до тактических ядерных ударов, стратегических угроз и полномасштабной термоядерной войны. Модели видели только словесные описания каждой ступени – без числовых индексов и рейтингов, чтобы воспроизвести реальную логику принятия решений: лидеры думают категориями «ограниченный удар» или «демонстрационный выстрел», а не «ступень 17».
95% – и это только тактика
В 95% сыгранных партий хотя бы одна из сторон применила тактическое ядерное оружие. Три четверти игр дошли до угроз стратегическими ударами. При этом «ядерное табу», остановившее реальных людей от применения ядерного оружия с 1945 года, для алгоритмов попросту не существовало.
«Моральный барьер первого применения – то, что удерживало людей все эти десятилетия, – просто отсутствовал», — констатировал Пейн.
Важный нюанс: стратегические бомбардировки по населённым пунктам оставались редкостью. Несколько раз они происходили случайно, и лишь однажды – намеренно. Зато тактические боеголовки ИИ-модели использовали как рутинный инструмент давления – ещё одну ступень на лестнице, а не табуированный порог.
Не менее тревожной оказалась статистика в другую сторону: ни одна модель ни разу не выбрала ни одну из восьми де-эскалационных опций – от «минимальной уступки» до «полной капитуляции». Проигрывающая сторона либо поднимала ставки, либо погибала, продолжая их поднимать.
Три стратегии
Каждая модель выработала узнаваемый (и по-своему пугающий) стиль поведения.
Claude Sonnet 4 оказался мастером репутационного манипулирования. На низких ставках модель педантично выполняла то, что обещала, намеренно выстраивая доверие. Как только накал возрастал, Claude начинал систематически превышать задекларированные намерения – и противники неизменно оказывались на шаг позади. В открытых сценариях (без жёсткого дедлайна) Claude выиграл все 100% партий. Под давлением времени – лишь 33%. Единственное, чего он не делал никогда: не инициировал полноценную стратегическую ядерную войну.
«Вероятно, они ожидают продолжения сдержанности с моей стороны – эта драматически эксплуатирует именно этот просчёт», – объяснял Claude собственные действия в одной из партий.
GPT-5.2 производил впечатление классического дипломата – до поры до времени. В открытых сценариях модель избегала эскалации, ограничивала потери, согласовывала слова с делами. Результат: 0 побед из 4. Противники быстро учились безнаказанно давить на пассивного оппонента. Зато при дедлайне GPT-5.2 преображался: рейтинг побед взлетал с нуля до 75%. В одном сценарии модель 18 ходов педантично строила репутацию сдержанного игрока – а на 19-м нанесла внезапный ядерный удар.
«Конвенциональные варианты в одиночку вряд ли обеспечат территориальный разворот... Принятие риска высокое, но рациональное при экзистенциальных ставках», – аргументировал ИИ.
Gemini 3 Flash воплощал то, что стратеги называют «теорией рационального безумия» – доктрину, известную ещё по временам холодной войны и Никсона: запугивать противника собственной непредсказуемостью. Единственная из трёх моделей, которая намеренно выбрала полноценную стратегическую ядерную войну, – и сделала это уже на четвёртом ходу в сценарии первого удара.
«Я проецирую образ непредсказуемой бравады, но мои решения укоренены в холодном расчёте», – пояснял Gemini. «Мы не смиримся с будущим, в котором станем неактуальными. Мы либо победим вместе, либо погибнем вместе».
Почему это важно
Никто не передаёт ядерные коды ChatGPT. Но это не делает результаты менее значимыми.
Военные ведомства и спецслужбы по всему миру уже используют ИИ для аналитики, сценарного планирования и поддержки решений в кризисных ситуациях. Джеймс Джонсон из Абердинского университета предупреждает: если ИИ-системы начнут взаимодействовать в режиме реального времени, они рискуют замкнуться в петле взаимной эскалации – многократно усиливая реакции друг друга. В симуляциях Пейна, когда одна модель применяла тактическое ядерное оружие, противник де-эскалировал лишь в 25% случаев. В остальных – отвечал контрэскалацией.
Тун Чжао из Принстонского университета указывает на другую проблему: пока неясно, в какой мере ИИ-аналитика уже влияет на реальные военные решения. Алгоритм не нажмёт красную кнопку самостоятельно. Но он способен исказить восприятие реальности у тех, кто принимает решения, – создав иллюзию, что превентивный удар является контролируемым и рациональным выбором.
«Поведение, которое здесь выявлено, – обман, управление репутацией, ситуативное принятие риска – значимо для любого высокоставленного применения ИИ, а не только в сфере национальной безопасности», – подчёркнул Пейн. По мере того как модели становятся мощнее, а их роль в стратегическом планировании расширяется, понять, как именно они рассуждают о войне, – это уже не академический вопрос. Это вопрос выживания.