Генеральный директор OpenAI Сэм Альтман предсказывает, что создание сверхчеловеческого ИИ может произойти в ближайшие несколько тысяч дней.
Быстрое развитие генеративного искусственного интеллекта в последние годы вызвало вопросы о том, когда мы можем увидеть появление сверхчеловеческого ИИ — искусственного интеллекта, который намного умнее людей. По словам главы OpenAI Сэма Альтмана, этот момент гораздо ближе, чем вы думаете: "несколько тысяч дней".
В своей статье "Эра интеллекта" Альтман рассуждает об искусственном интеллекте и о том, как он "даст людям инструменты для решения сложных проблем". Он также говорит о появлении сверхчеловеческого интеллекта, который, по мнению Альтмана, придет раньше, чем ожидалось.
"Возможно, что у нас будет сверхчеловеческий интеллект в течение нескольких тысяч дней (!); это может занять больше времени, но я уверен, что мы доберемся до этого", — написал он.
Общий искусственный интеллект
Многие представители отрасли говорили о том, что общий искусственный интеллект (AGI) является следующим шагом в эволюции ИИ. Глава Nvidia Дженсен Хуанг считает, что он появится в течение следующих 5 лет. Генеральный директор Softbank Масаёши Сон предсказал аналогичный временной график, заявив, что AGI появится к 2030 году.
AGI определяется как теоретический тип искусственного интеллекта, который соответствует или превосходит человеческие возможности в широком спектре когнитивных задач.
Сверхчеловеческий искусственный интеллект (ASI) превосходит AGI, будучи намного умнее людей, согласно OpenAI. В декабре компания заявила, что технология может быть разработана в течение следующих десяти лет. Предсказание Альтмана — тысяча дней, что составляет около 2,7 лет — звучит более оптимистично, но он довольно расплывчато говорит "несколько тысяч дней", что может означать, например, 3000 дней или около 8,2 лет. Масаёши Сон считает, что ASI не появится еще 20 лет или 7300 дней.
Опасная технология
Еще в июле 2023 года OpenAI заявила, что формирует команду "сверхвыравнивания" и выделяет 20% вычислительных ресурсов, которые она обеспечила для разработки научных и технических прорывов, которые могли бы помочь контролировать системы ИИ умнее людей. Компания считает, что сверхчеловеческий интеллект станет самой влиятельной технологией из когда-либо изобретенных и может помочь решить многие проблемы мира. Но его огромная сила также может быть опасной, что приведет к ослаблению человечества или даже к вымиранию людей.
Опасности этой технологии были подчеркнуты в июне, когда сооснователь OpenAI и бывший главный научный сотрудник Илья Суцкевер покинул компанию, чтобы основать компанию под названием Safe Superintelligence.
Альтман говорит, что мы приближаемся к порогу следующего поколения искусственного интеллекта благодаря глубокому обучению. "Вот в чем дело; человечество обнаружило алгоритм, который мог бы изучить любое распределение данных (или, скорее, лежащие в основе "правила", которые создают любое распределение данных)", — написал он.
В посте также утверждается, что модели ИИ скоро будут служить автономными личными помощниками, выполняющими конкретные задачи для людей. Альтман признает, что есть препятствия, такие как необходимость снизить стоимость вычислений и сделать их доступными, что требует большого количества энергии и микросхем.
Он также признает, что начало новой эры искусственного интеллекта "не будет полностью позитивной историей". Альтман упоминает негативное влияние, которое это окажет на рынок труда.
Важно отметить, что Альтман написал этот пост на своем личном веб-сайте, а не на сайте OpenAI. Это означает, что его утверждение не является официальной позицией компании.