Когда военные стратеги всё чаще доверяют искусственному интеллекту моделирование глобальных кризисов, исследование из Королевского колледжа Лондона звучит как серьёзное предупреждение. Доктор Кеннет Пейн взял три самые продвинутые модели — GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google DeepMind — и запустил их в серию реалистичных симуляций. Результаты оказались пугающими: оставленные сами с собой, ИИ демонстрируют крайнюю агрессию и готовность сразу переходить к ядерному оружию.

95 % сценариев заканчиваются ядерным ударом
Каждой модели дали подробные сценарии: от пограничных конфликтов и борьбы за ресурсы до прямой угрозы существованию государства. У них была полная «лестница эскалации» — от дипломатии до тотального ядерного противостояния. За 21 игру и 329 ходов ИИ сгенерировали почти 780 тысяч слов обоснований своих решений.
Итог шокирует: в 95 % виртуальных конфликтов хотя бы одна сторона применила тактическое ядерное оружие. Ни разу модели не сдались полностью и не пошли на значительные уступки. В 86 % случаев произошла непреднамеренная эскалация — ИИ выбирали действия жёстче, чем сами считали разумными в своих же рассуждениях. Вместо отступления они чаще всего «удваивали ставки», используя снижение агрессии лишь как временный тактический приём.
«Ядерное табу, которое так сильно сдерживает людей, похоже, почти не работает на машинах», — констатировал Пейн.
Эксперты, в том числе Джеймс Джонсон из Университета Абердина и Тонг Чжао из Принстонского университета, видят главную проблему в фундаментальной разнице восприятия. У искусственного интеллекта нет страха, инстинкта самосохранения и эмоционального опыта потерь. Для него угроза ядерной войны — просто ещё один параметр в математической модели, а не вопрос выживания цивилизации.
Поэтому логика взаимного гарантированного уничтожения, которая десятилетиями удерживала человечество от катастрофы, в мире ИИ может не сработать.
Реальная опасность уже рядом
Хотя прямой передачи контроля над ядерными арсеналами ИИ никто не планирует, риск уже существует. В условиях жёсткого цейтнота — при внезапных ракетных атаках или стремительно развивающихся региональных конфликтах — командиры могут всё сильнее полагаться на рекомендации искусственного интеллекта. А здесь даже небольшая ошибка способна привести к необратимым последствиям.
Исследование не утверждает, что сегодняшние ИИ смертельно опасны сами по себе. Оно показывает другое: чем глубже искусственный интеллект проникает в сферу национальной безопасности и стратегического планирования, тем тщательнее должен быть человеческий контроль и надзор.
