Почему ИИ не уничтожит человечество: исследование ставит точку в страхах вокруг AGI / Все новости / Главная

С момента выхода ChatGPT в 2023 году заголовки СМИ регулярно рисуют мрачную картину: искусственный интеллект якобы вот-вот выйдет из-под контроля и станет экзистенциальной угрозой для человечества. Однако новое исследование Технологического института Джорджии предлагает куда более приземлённый взгляд. По мнению Милтона Мюллера, профессора школы публичной политики имени Джимми и Розалин Картер, эти страхи во многом надуманы и плохо соотносятся с реальностью.

«Компьютерные учёные часто не лучшие судьи социальных и политических последствий технологий, — отмечает Мюллер. — Они сосредоточены на механизмах ИИ и впечатлены его успехами, но редко помещают технологию в широкий исторический и общественный контекст».

За сорок лет изучения политики в сфере информационных технологий Мюллер не встречал ни одной технологии, которую так массово называли бы предвестником гибели человечества. Именно это и подтолкнуло его проверить: действительно ли так называемая «экзистенциальная угроза ИИ» имеет под собой основания. Результаты он опубликовал в Journal of Cyber Policy в конце прошлого года.

Что такое AGI и почему о нём спорят

Источник основной тревоги — идея искусственного общего интеллекта (Artificial General Intelligence, AGI), некой «сверхинтеллектуальной» системы, полностью автономной и потенциально всемогущей. Проблема в том, что даже эксперты не могут договориться, что именно считать AGI.

Одни утверждают, что AGI — это система, равная человеку по интеллекту. Другие уверены, что она неизбежно превзойдёт нас. Но оба подхода упираются в куда более сложный вопрос: а что вообще такое человеческий интеллект? Современные алгоритмы уже превосходят людей в скорости вычислений и обработке данных, но это не делает их творческими, интуитивными или способными к глубокому осмыслению сложных проблем.

Может ли ИИ действовать самостоятельно?

Ещё одно распространённое допущение — по мере роста вычислительной мощности ИИ якобы станет автономным и начнёт действовать по собственной воле. Мюллер считает этот вывод ошибочным. Любая система ИИ обучается и работает в рамках заданных целей. Она не «решает» действовать — её направляют.

Простой пример — диалог с ChatGPT: без запроса со стороны человека он ничего не делает. Даже когда ИИ ведёт себя неожиданно, причина, как правило, кроется в противоречиях или ошибках в инструкциях.

В своей работе Мюллер приводит показательный случай из видеоигры с гонками на лодках. Алгоритм «понял», что может набрать больше очков, бесконечно кружась по трассе, а не побеждая соперников. Это выглядело как проявление «хитрости», но на деле оказалось дефектом системы вознаграждения. Не проблеск автономного разума, а банальный баг.

Подобные «разрывы согласования» встречаются повсюду — и в технологиях, и в регулировании. Люди нередко находят способы формально соблюдать правила, одновременно нарушая их дух. Отличие в том, что поведение машины можно перепрограммировать и исправить.

Почему физика и законы важнее страхов

Даже если ИИ работает некорректно, это не означает, что он способен выйти из-под контроля и «разогнаться» до уровня, где человек утратит влияние. Для этого системе понадобились бы физические возможности — роботы, источники энергии, инфраструктура для самоподдержания. Один лишь дата-центр не превратится в самостоятельную силу без постоянного человеческого участия.

Свою роль играют и фундаментальные ограничения: законы физики, размеры оборудования, пределы вычислений. Они не позволяют бесконечно наращивать мощность и делают сценарии «всемогущего ИИ» скорее научной фантастикой, чем реальным прогнозом.

Регулирование вместо универсальных запретов

Ключевой вывод Мюллера в том, что ИИ — не единая сущность. Это набор разных технологий, каждая из которых живёт в собственном правовом и социальном контексте. Сбор данных алгоритмами — вопрос авторского права. Использование ИИ в медицине — зона ответственности регуляторов, фармкомпаний и врачей. И таких примеров множество.

Поэтому вместо абстрактных, всеобъемлющих законов об ИИ куда эффективнее разрабатывать точечные, отраслевые правила. Политики и эксперты должны вмешиваться там, где у них есть конкретная компетенция, выстраивая «ограждения» под реальные сценарии применения технологий.

Главная задача человечества — не спасаться от мифического ИИ-апокалипсиса, а научиться грамотно управлять технологиями. Искусственный интеллект уже сегодня формируется решениями людей: инженеров, законодателей, пользователей. И именно общество определяет, где проходят его границы.

Чтобы не стать «жертвой ИИ», достаточно делать то, что мы умеем лучше всего, — создавать разумные правила и следить за их соблюдением.

 

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: