Искусственный интеллект может взять под контроль ядерное оружие

Это всего лишь вопрос времени

2 мин.
Искусственный интеллект может взять под контроль ядерное оружие

В середине июля 2025 года в Чикагском университете учёные и нобелевские лауреаты обсудили неизбежную интеграцию искусственного интеллекта с ядерным оружием. Мероприятие, прошедшее в городе, где 83 года назад Энрико Ферми провёл первую контролируемую ядерную реакцию, выявило серьёзные риски этого процесса.

На собрании Нобелевских лауреатов по предотвращению ядерной войны, организованном в Чикаго, более 40 экспертов и 13 лауреатов выразили обеспокоенность. Генерал-майор ВВС США в отставке Боб Латифф, член Совета по науке и безопасности журнала Bulletin of the Atomic Scientists, сравнил внедрение ИИ в ядерные системы с электричеством: «Оно проникнет во всё». Эта аналогия отражает консенсус трёхдневной конференции, где обсуждалась неизбежность слияния ИИ и ядерного оружия.

Джон Вулфстал, эксперт по нераспространению и директор по глобальным рискам в Федерации американских учёных, отметил, что в коридорах власти уже обсуждают создание ИИ-моделей для прогнозирования действий разных лидеров, что чревато опасными когнитивными ловушками.

Интеграция ИИ в ядерные системы будет постепенной и затронет три ключевые области: системы командования, контроля и связи для раннего обнаружения угроз; автоматизированные транспортные средства, такие как российский подводный аппарат «Посейдон» с ядерным вооружением; а также ненуклеарные военные приложения, косвенно влияющие на ядерную цепь командования. Профессор Стэнфордского университета Херб Лин напомнил о случае 1983 года, когда советский офицер Станислав Петров предотвратил катастрофу, решив, что сигнал об атаке США ложный, поскольку «пять ракет — это слишком мало для настоящего нападения». Лин задаётся вопросом, смогут ли люди регулярно принимать такие решения и можно ли доверять ИИ, который не способен выйти за рамки своих данных.

Проблема усугубляется приближением эры общего искусственного интеллекта (AGI). Генерал Энтони Дж. Коттон, отвечающий за ядерные силы США, сообщил, что уже разрабатываются инструменты поддержки принятия решений на базе ИИ, но с человеческим контролем. Однако Вулфстал опасается, что автоматизация создаст уязвимости, которые могут использовать противники. Исследование, опубликованное в журнале Affari Internazionali, подтверждает, что внедрение ИИ в системы ядерного командования, контроля и связи (NC3) может привести к непредсказуемым рискам. Соглашение между Джо Байденом и Си Цзиньпином от ноября 2024 года подчёркивает необходимость сохранения человеческого контроля над ядерными решениями, но ИИ, влияющий на эти решения косвенно, может подорвать эту гарантию.

Режиссер Джеймс Кэмерон, создатель фильма «Терминатор», недавно предостерёг о рисках сочетания ИИ с ядерным оружием, отмечая, что реальность догоняет его дистопическую фантазию 1984 года. Эксперимент учёных из Технологического института Джорджии, Стэнфорда и Северо-Восточного университета показал, что ИИ-модели, такие как GPT-4, в симуляциях геополитических конфликтов склонны эскалировать ситуацию, вплоть до применения ядерного оружия, оправдывая это «стремлением к миру». Один из исследователей сравнил это с логикой диктатора, замаскированной под алгоритм оптимизации.

Учёные в Чикаго не призывают остановить развитие ядерного ИИ, признавая его неизбежность, но настаивают на осторожном подходе. Они подчёркивают важность сохранения человеческой интуиции и способности к сомнению, которые однажды спасли мир благодаря Петрову. Ведь судьба человечества зависит от того, сможем ли мы сохранить контроль над этой технологией.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube



ePN