Миллиардеры-техномагнаты продолжают строить бункеры на случай конца света / Все новости / Главная

Марк Цукерберг, Сэм Альтман, Рид Хоффман и другие известные фигуры Кремниевой долины всё чаще упоминаются в контексте строительства бункеров, скрытых резиденций и прочих апокалиптических убежищ.

Эти новости породили волну слухов: не знают ли лидеры техноиндустрии чего-то, что утаивают от общественности — например, о грядущем коллапсе, вызванном искусственным интеллектом, климатическими катастрофами или войнами?

Однако, как пишет BBC, паника вокруг этой темы может быть сильно преувеличена.

Что стоит за страхами перед ИИ

Эксперты сходятся во мнении: разговоры о скором появлении Искусственного Общего Интеллекта (AGI) — системы, умнее человека, — пока больше похожи на маркетинг, чем на научную реальность.

Тем не менее, это не мешает миллиардерам вкладываться в «убежища на случай конца света». Так, Марк Цукерберг строит в Гавайях огромный комплекс, в котором, по слухам, есть подземное укрытие. Сам он отрицает, что речь идёт о «бункере Судного дня».

Рид Хоффман из LinkedIn открыто признаётся, что владеет недвижимостью в Новой Зеландии — на случай глобальных катастроф.

Подобные истории подпитывают общественные страхи: якобы элита готовится пережить социальный коллапс, климатический кризис или восстание машин.

Идея «страховки от конца света»

Некоторые разработчики ИИ действительно выражают беспокойство. Сооснователь OpenAI Илья Суцкевер однажды заявил: «Мы точно построим бункер до того, как создадим AGI». Сторонники «апокалиптического сценария» уверены, что гипотетический AGI может стать непредсказуемым и выйти из-под контроля.

К этим опасениям добавляются привычные угрозы: ядерные конфликты, пандемии, изменение климата и социальные волнения. Богатейшие люди мира видят в роскошных убежищах способ переждать возможный хаос.

Среди самих учёных единства нет. Одни — включая Сэма Альтмана, Демиса Хассабиса и Дарио Амодеи — считают, что AGI появится уже в ближайшие 10 лет. Другие, как профессор Вэнди Холл из Саутгемптонского университета, полагают, что до этого ещё далеко: «Современные технологии впечатляют, но до человеческого интеллекта им очень далеко».

Современный искусственный интеллект способен анализировать данные и имитировать рассуждения, но не обладает сознанием. Он лишь прогнозирует вероятные ответы — не понимая их сути.

Мировые правительства тоже по-разному смотрят на угрозы ИИ.
Администрация Джо Байдена пыталась ввести правила по проверке безопасности алгоритмов, однако последующие реформы ослабили эти меры, посчитав их «препятствием для инноваций».

Великобритания, напротив, создала Институт безопасности ИИ, который изучает возможные риски технологий.

Настоящие проблемы искусственного интеллекта

Учёные предупреждают: разговоры о «сверхразумном ИИ» отвлекают внимание от реальных угроз — таких как дискриминация в алгоритмах, дезинформация, рост безработицы и монополизация технологий крупными корпорациями.

Профессор Нил Лоуренс считает сам термин «AGI» бессмысленным: «Интеллект всегда контекстуален. Универсального интеллекта не существует — как не существует “универсального транспортного средства”, способного одинаково хорошо летать, плавать и ездить».

По его мнению, стоит не бояться фантастических сценариев, а осмыслить, как уже существующий ИИ меняет власть, экономику и общество.

Как отмечает BBC, стремление миллиардеров обзавестись бункерами отражает смесь факторов: реальный страх потерять контроль над технологиями, желание продемонстрировать богатство и статус, а также элемент психологической «подушки безопасности».

Научное сообщество, впрочем, уверено: ни AGI, ни «суперинтеллект» не появятся в обозримом будущем. А вместо того чтобы копать бункеры, человечеству стоит задуматься, как разумно использовать уже существующие алгоритмы.

 

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: