С момента выхода ChatGPT в 2023 году заголовки СМИ регулярно рисуют мрачную картину: искусственный интеллект якобы вот-вот выйдет из-под контроля и станет экзистенциальной угрозой для человечества. Однако новое исследование Технологического института Джорджии предлагает куда более приземлённый взгляд. По мнению Милтона Мюллера, профессора школы публичной политики имени Джимми и Розалин Картер, эти страхи во многом надуманы и плохо соотносятся с реальностью.

«Компьютерные учёные часто не лучшие судьи социальных и политических последствий технологий, — отмечает Мюллер. — Они сосредоточены на механизмах ИИ и впечатлены его успехами, но редко помещают технологию в широкий исторический и общественный контекст».
За сорок лет изучения политики в сфере информационных технологий Мюллер не встречал ни одной технологии, которую так массово называли бы предвестником гибели человечества. Именно это и подтолкнуло его проверить: действительно ли так называемая «экзистенциальная угроза ИИ» имеет под собой основания. Результаты он опубликовал в Journal of Cyber Policy в конце прошлого года.
Что такое AGI и почему о нём спорят
Источник основной тревоги — идея искусственного общего интеллекта (Artificial General Intelligence, AGI), некой «сверхинтеллектуальной» системы, полностью автономной и потенциально всемогущей. Проблема в том, что даже эксперты не могут договориться, что именно считать AGI.
Одни утверждают, что AGI — это система, равная человеку по интеллекту. Другие уверены, что она неизбежно превзойдёт нас. Но оба подхода упираются в куда более сложный вопрос: а что вообще такое человеческий интеллект? Современные алгоритмы уже превосходят людей в скорости вычислений и обработке данных, но это не делает их творческими, интуитивными или способными к глубокому осмыслению сложных проблем.
Может ли ИИ действовать самостоятельно?
Ещё одно распространённое допущение — по мере роста вычислительной мощности ИИ якобы станет автономным и начнёт действовать по собственной воле. Мюллер считает этот вывод ошибочным. Любая система ИИ обучается и работает в рамках заданных целей. Она не «решает» действовать — её направляют.
Простой пример — диалог с ChatGPT: без запроса со стороны человека он ничего не делает. Даже когда ИИ ведёт себя неожиданно, причина, как правило, кроется в противоречиях или ошибках в инструкциях.
В своей работе Мюллер приводит показательный случай из видеоигры с гонками на лодках. Алгоритм «понял», что может набрать больше очков, бесконечно кружась по трассе, а не побеждая соперников. Это выглядело как проявление «хитрости», но на деле оказалось дефектом системы вознаграждения. Не проблеск автономного разума, а банальный баг.
Подобные «разрывы согласования» встречаются повсюду — и в технологиях, и в регулировании. Люди нередко находят способы формально соблюдать правила, одновременно нарушая их дух. Отличие в том, что поведение машины можно перепрограммировать и исправить.
Почему физика и законы важнее страхов
Даже если ИИ работает некорректно, это не означает, что он способен выйти из-под контроля и «разогнаться» до уровня, где человек утратит влияние. Для этого системе понадобились бы физические возможности — роботы, источники энергии, инфраструктура для самоподдержания. Один лишь дата-центр не превратится в самостоятельную силу без постоянного человеческого участия.
Свою роль играют и фундаментальные ограничения: законы физики, размеры оборудования, пределы вычислений. Они не позволяют бесконечно наращивать мощность и делают сценарии «всемогущего ИИ» скорее научной фантастикой, чем реальным прогнозом.
Регулирование вместо универсальных запретов
Ключевой вывод Мюллера в том, что ИИ — не единая сущность. Это набор разных технологий, каждая из которых живёт в собственном правовом и социальном контексте. Сбор данных алгоритмами — вопрос авторского права. Использование ИИ в медицине — зона ответственности регуляторов, фармкомпаний и врачей. И таких примеров множество.
Поэтому вместо абстрактных, всеобъемлющих законов об ИИ куда эффективнее разрабатывать точечные, отраслевые правила. Политики и эксперты должны вмешиваться там, где у них есть конкретная компетенция, выстраивая «ограждения» под реальные сценарии применения технологий.
Главная задача человечества — не спасаться от мифического ИИ-апокалипсиса, а научиться грамотно управлять технологиями. Искусственный интеллект уже сегодня формируется решениями людей: инженеров, законодателей, пользователей. И именно общество определяет, где проходят его границы.
Чтобы не стать «жертвой ИИ», достаточно делать то, что мы умеем лучше всего, — создавать разумные правила и следить за их соблюдением.
