Более тысячи влиятельных представителей науки, технологий, политики, культуры и даже королевских семей подписали открытое письмо с призывом приостановить разработку сверхинтеллектуальных систем искусственного интеллекта (ИИ). Документ требует ввести временный запрет на создание ИИ, превосходящего человека по когнитивным способностям, пока не будут выработаны надёжные механизмы безопасности и получено общественное одобрение.
Среди подписантов — легендарные исследователи, которых называют «крёстными отцами ИИ», Джеффри Хинтон и Йошуа Бенджио. К ним присоединились сооснователь Apple Стив Возняк, основатель Virgin Group Ричард Брэнсон, а также представители разных сфер — Стив Бэннон, Гленн Бек, актёр Джозеф Гордон-Левитт, музыканты Will.I.am и Граймс, и даже принц Гарри и Меган Маркл.
Инициатором выступила организация Future of Life Institute (FLI), специализирующаяся на вопросах безопасности искусственного интеллекта. В письме подчёркивается, что ИИ может принести человечеству огромную пользу — от улучшения здравоохранения до экономического роста. Однако стремление компаний создать сверхинтеллект уже в ближайшие десять лет вызывает серьёзные опасения.
Суть опасений
Авторы письма предупреждают о рисках, связанных с бесконтрольным развитием ИИ:
- массовая потеря рабочих мест и вытеснение человека из экономики;
- утрата личной свободы и контроля;
- угрозы национальной безопасности;
- потенциальная опасность для существования человечества.
Недавно FLI заявила, что компания OpenAI направила ей судебные повестки в ответ на призывы к ужесточению контроля над ИИ. Это лишь усилило опасения, что технологические гиганты не готовы к диалогу.
По данным опроса среди 2000 американцев, только 5% поддерживают подход ИТ-компаний «действовать быстро, даже если что-то сломается». Почти три четверти респондентов выступают за жёсткое регулирование ИИ, а 60% считают, что сверхразумные системы не должны создаваться, пока не будет доказана их безопасность.
Исследование Pew Center показало, что 44% американцев доверяют правительству регулировать ИИ, тогда как 47% выражают недоверие.
Что будет дальше
Руководитель OpenAI Сэм Альтман недавно заявил, что сверхинтеллект появится уже к 2030 году. По его словам, до 40% всех экономических задач вскоре перейдут к ИИ.
Компания Meta, по словам её CEO Маркa Цукерберга, также активно движется к созданию сверхразума. Он утверждает, что это «поможет людям», хотя разделение подразделения Meta Superintelligence Labs на четыре группы может говорить о том, что до цели ещё далеко.
Эксперты скептически оценивают вероятность того, что новое письмо приведёт к замедлению гонки за сверхинтеллектом. Аналогичное обращение, подписанное Илоном Маском в 2023 году, не оказало значимого влияния. Тем не менее, новый документ показывает: общественный запрос на осторожность и регулирование в сфере ИИ становится всё громче.