Крупнейшие учёные требуют остановить разработку сверхразумного искусственного интеллекта / Все новости / Главная

Более тысячи влиятельных представителей науки, технологий, политики, культуры и даже королевских семей подписали открытое письмо с призывом приостановить разработку сверхинтеллектуальных систем искусственного интеллекта (ИИ). Документ требует ввести временный запрет на создание ИИ, превосходящего человека по когнитивным способностям, пока не будут выработаны надёжные механизмы безопасности и получено общественное одобрение.

Среди подписантов — легендарные исследователи, которых называют «крёстными отцами ИИ», Джеффри Хинтон и Йошуа Бенджио. К ним присоединились сооснователь Apple Стив Возняк, основатель Virgin Group Ричард Брэнсон, а также представители разных сфер — Стив Бэннон, Гленн Бек, актёр Джозеф Гордон-Левитт, музыканты Will.I.am и Граймс, и даже принц Гарри и Меган Маркл.

Инициатором выступила организация Future of Life Institute (FLI), специализирующаяся на вопросах безопасности искусственного интеллекта. В письме подчёркивается, что ИИ может принести человечеству огромную пользу — от улучшения здравоохранения до экономического роста. Однако стремление компаний создать сверхинтеллект уже в ближайшие десять лет вызывает серьёзные опасения.

Суть опасений

Авторы письма предупреждают о рисках, связанных с бесконтрольным развитием ИИ:

  • массовая потеря рабочих мест и вытеснение человека из экономики;
  • утрата личной свободы и контроля;
  • угрозы национальной безопасности;
  • потенциальная опасность для существования человечества.

Недавно FLI заявила, что компания OpenAI направила ей судебные повестки в ответ на призывы к ужесточению контроля над ИИ. Это лишь усилило опасения, что технологические гиганты не готовы к диалогу.

По данным опроса среди 2000 американцев, только 5% поддерживают подход ИТ-компаний «действовать быстро, даже если что-то сломается». Почти три четверти респондентов выступают за жёсткое регулирование ИИ, а 60% считают, что сверхразумные системы не должны создаваться, пока не будет доказана их безопасность.

Исследование Pew Center показало, что 44% американцев доверяют правительству регулировать ИИ, тогда как 47% выражают недоверие.

Что будет дальше

Руководитель OpenAI Сэм Альтман недавно заявил, что сверхинтеллект появится уже к 2030 году. По его словам, до 40% всех экономических задач вскоре перейдут к ИИ.

Компания Meta, по словам её CEO Маркa Цукерберга, также активно движется к созданию сверхразума. Он утверждает, что это «поможет людям», хотя разделение подразделения Meta Superintelligence Labs на четыре группы может говорить о том, что до цели ещё далеко.

Эксперты скептически оценивают вероятность того, что новое письмо приведёт к замедлению гонки за сверхинтеллектом. Аналогичное обращение, подписанное Илоном Маском в 2023 году, не оказало значимого влияния. Тем не менее, новый документ показывает: общественный запрос на осторожность и регулирование в сфере ИИ становится всё громче.



Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: