Искусственный интеллект постепенно покидает лаборатории и виртуальные полигоны, переходя туда, где цена ошибки измеряется не багами, а жизнями. На закрытых военных испытаниях в центральной Калифорнии стартап Scout AI продемонстрировал систему, которая самостоятельно обнаружила и уничтожила цель с помощью ударного дрона. Причём без вмешательства человека в режиме реального времени.

Речь идёт не о заранее прописанном сценарии, а об адаптивной архитектуре, способной принимать тактические решения «на лету». Это уже не просто автоматизация — это автономия нового поколения.
Как работает система автономного удара
В основе разработки лежит программная платформа под названием Fury Orchestrator. В систему вводится командная фраза — по сути, задание миссии. Далее в дело вступает крупная модель с более чем 100 миллиардами параметров. Она анализирует задачу, планирует операцию и распределяет её между более компактными моделями (около 10 миллиардов параметров), размещёнными на наземной машине и беспилотниках.
Каждый узел системы функционирует как самостоятельный агент. Он формирует собственные подкоманды для систем управления движением и полётом, встроенных в технику. Получается своего рода «роевая» архитектура, где единая цель достигается за счёт координации множества ИИ-агентов.
В ходе теста внедорожник самостоятельно вышел в заданную точку, развернул дроны и направил их к цели — грузовику без вооружения, использованному для проверки. Спустя считанные секунды один из беспилотников получил вычислительное разрешение на подрыв заряда при столкновении. Система завершила последовательность атаки полностью автономно.
Можно сказать, что алгоритм не просто управлял дроном — он принял решение.
От разговорных моделей к «цифровому бойцу»
Генеральный директор компании, Колби Эдкок, в интервью журналу Wired подчеркнул: ключевое отличие этой системы от прежних военных комплексов в том, что она не опирается на жёсткие сценарии. В её основе — фундаментальные модели (foundation models), похожие по архитектуре на те, что используются в крупных языковых системах гражданского назначения.
По сути, разработчики берут универсальную ИИ-модель, обученную на обширных данных, и «перепрофилируют» её — вместо диалогов и генерации текста она начинает заниматься планированием миссий и машинным восприятием окружающей среды. Так, по выражению Эдкока, универсальный алгоритм превращается в «бойца».
Интересно, что семья основателя также связана с робототехникой: его брат Бретт Эдкок возглавляет компанию Figure AI, работающую над гуманоидными роботами. Это часть более широкой волны американских оборонных стартапов, стремящихся адаптировать коммерческие прорывы в области ИИ к военным задачам.
Зачем это нужно — и в чём риск
По мнению профессора Пенсильванского университета Майкла Хоровица, ранее работавшего в Пентагоне, внедрение ИИ в оборонные системы — вопрос стратегической конкурентоспособности США. Однако вместе с возможностями появляются и серьёзные вопросы.
Фундаментальные модели, обученные на данных общего назначения, известны своей непредсказуемостью. Они способны демонстрировать «эмерджентное поведение» — неожиданные свойства, не заложенные напрямую разработчиками. Если такие модели получают контроль над вооружёнными платформами, риски возрастают кратно.
Автономные системы в войне — не новость: автоматическое наведение и сопровождение целей используются давно. Но одно дело — алгоритм, работающий в рамках жёстко заданных правил, и совсем другое — гибкая модель, способная самостоятельно интерпретировать ситуацию. Где проходит граница допустимого? И кто несёт ответственность, если ИИ ошибётся?
Критики предупреждают: делегирование машине даже косвенного решения о том, кто является легитимной целью, может вступить в противоречие с устоявшимися нормами ведения войны.
Ограничения, контракты и будущее
В Scout AI утверждают, что их система соответствует протоколам Министерства обороны США и международному праву, включая Женевские конвенции. Программное обеспечение, по словам технического директора Коллина Отиса, работает в рамках чётко определённых правил применения силы.
Компания уже имеет четыре контракта с Министерством обороны США и участвует в конкурсе на проект по управлению «роем» беспилотников. Однако до реального развёртывания потребуется как минимум год доработок и испытаний.
Тем не менее сама демонстрация показывает направление развития военных технологий. Война в Украине уже продемонстрировала, как гражданские дроны могут превращаться в высокоточные средства поражения. Добавьте к этому координацию на базе крупных ИИ-моделей — и гибкость таких систем возрастёт многократно.
Но главный вопрос остаётся прежним: можно ли доверять алгоритму решение, от которого зависит жизнь? От ответа на него будет зависеть не только будущее оборонных технологий, но и сама этика вооружённых конфликтов.
