Google Threat Intelligence Group (GTIG) сообщила о первом подтверждённом случае, когда злоумышленники применили искусственный интеллект для разработки уязвимости нулевого дня. Целью стал популярный веб-инструмент администрирования: эксплойт позволял обойти двухфакторную аутентификацию после получения обычных учётных данных. Компания обнаружила и нейтрализовала атаку до того, как она могла вылиться в массовую кампанию.

Это событие знаменует новый этап в эволюции киберугроз: генеративные модели теперь помогают не только писать фишинговые письма, но и находить сложные логические уязвимости в программном обеспечении.
Как ИИ нашёл «семантическую» дыру
Эксплойт не был классической ошибкой в коде — вроде переполнения буфера или неправильной проверки ввода. Это была «семантическая логическая уязвимость» — скрытая слабость в самой логике работы программы. По словам аналитиков GTIG, современные большие языковые модели отлично справляются с поиском таких проблем, потому что умеют понимать контекст и взаимосвязи внутри кода.
Скрипт эксплойта содержал сразу несколько характерных «отпечатков» ИИ: учебные docstrings (строки документации), вымышленный рейтинг CVSS и идеально структурированный «учебниковый» Python-код. Google уверена, что злоумышленники использовали какую-то модель (не обязательно Gemini), чтобы ускорить обнаружение уязвимости.
Автономное вредоносное ПО и новые тактики
Отчёт GTIG показывает, что ИИ уже проникает на все этапы кибератак. Государственные группы из Китая, КНДР и России экспериментируют с ИИ для анализа прошивок встраиваемых устройств и поиска уязвимостей удалённого выполнения кода. Хакеры даже используют специальные промпты с «фейковыми» экспертными персонами, чтобы обойти защитные ограничения моделей.
Появилось и полностью автономное вредоносное ПО. Яркий пример — Android-бэкдор PROMPTSPY, который подключается к API Google Gemini. Зловред анализирует экран смартфона, имитирует касания, свайпы и даже повторяет жесты разблокировки по PIN-коду — всё без участия человека.
Кроме того, вредоносные программы теперь включают «обманный» ИИ-код: блоки неактивных функций, которые заставляют антивирусы считать ПО легитимным.
Google подчёркивает: искусственный интеллект стал одновременно и оружием, и целью. Злоумышленники уже атакуют цепочки поставок ИИ-продуктов, компрометируя пакеты кода, интеграции и инструменты разработчиков. В ответ компания усиливает оборону с помощью собственных ИИ-систем — Big Sleep и CodeMender, которые автоматически находят и исправляют уязвимости до того, как ими успеют воспользоваться.
