Распространение чат-ботов, больших языковых моделей (LLM) и других ИИ-технологий меняет правила игры в сфере кибербезопасности. Сегодня ИИ используют как хакеры, так и специалисты по защите информации.
Согласно данным аналитиков, киберпреступники и группы, поддерживаемые государствами, активно применяют ИИ для взлома систем. В июле украинские власти и исследователи зафиксировали первый случай использования вредоносного ПО с поддержкой искусственного интеллекта. Российская группировка APT28 распространила программу Lamehug, которая обращалась к API Hugging Face и превращала обычные запросы в сложные команды для заражённых компьютеров.
При этом ИИ помогает и защитникам. Так, по словам вице-президента Google по инженерной безопасности Хизер Адинс, языковая модель Gemini выявила как минимум 20 серьёзных уязвимостей в популярных программах. Компания уже передала информацию производителям, чтобы они устранили проблемы.
Почему это важно
ИИ пока не произвёл революции в киберзащите, но уже заметно ускоряет рутинные процессы. Большие языковые модели позволяют быстрее находить уязвимости, автоматизировать поиск ошибок и повышать эффективность работы специалистов.
Однако угрозы тоже растут. Компания CrowdStrike предупреждает: российские, китайские и иранские хакеры всё активнее используют чат-ботов и LLM для кибератак. Таким образом, технологии, которые крупные корпорации и стартапы пока только осваивают, уже приносят злоумышленникам реальную прибыль.
Тем не менее, эксперты уверены, что в долгосрочной перспективе ИИ принесёт больше пользы защитникам. Алексей Булaзель, старший директор по кибербезопасности в Совете нацбезопасности США, отмечает: искусственный интеллект способен демократизировать доступ к информации о уязвимостях и помогать выявлять типичные ошибки, что даст защитникам преимущество.