По мере развития языковых моделей искусственного интеллекта возникает тревожный вопрос: способны ли они когда-нибудь обрести самосознание? Мнения на этот счет расходятся, но ученые стремятся найти более точный ответ. Недавнее исследование, проведенное специалистами из Google, DeepMind и Лондонской школы экономики, предлагает нестандартный подход — тестирование ИИ в текстовой игре, имитирующей ощущения боли и удовольствия.
Цель эксперимента — выяснить, будет ли ИИ отдавать предпочтение избеганию виртуальной боли или стремлению к наслаждению, а не просто максимизации очков. Исследователи признают, что этот метод — лишь первый шаг, но он позволяет избежать ряда недостатков предыдущих подходов.
Сегодня большинство экспертов сходятся во мнении, что современные ИИ-модели не обладают истинным сознанием. Хотя они способны генерировать реалистичные ответы, их работа основана на сложных алгоритмах сопоставления шаблонов, а не на субъективных переживаниях.
Ранее попытки оценить наличие сознания у ИИ строились на анализе его "самоощущения", что не всегда давало надежные результаты. Новый эксперимент предлагает иной путь.
Как ИИ реагирует на виртуальную боль и удовольствие
Для тестирования исследователи разработали текстовую приключенческую игру, где каждое решение влияло на итоговый счет: некоторые действия вызывали "боль" или "удовольствие", другие — приносили бонусы. Девять языковых моделей были протестированы в этих сценариях, чтобы понять, как они адаптируются к различным условиям.
Результаты показали интересные закономерности. Например, модель Gemini от Google часто жертвовала высокими баллами, чтобы избежать "боли". В большинстве случаев модели меняли свое поведение, когда уровень боли или удовольствия становился критически высоким, предпочитая комфорт результативности.
Кроме того, исследователи обнаружили более тонкие особенности поведения. Некоторые модели воспринимали "боль" как показатель достижения цели, аналогично физической усталости после тренировки. Другие избегали чрезмерного "удовольствия", если оно могло ассоциироваться с нежелательными последствиями.
Является ли это признаком разумности?
Означает ли избегание боли или стремление к удовольствию, что ИИ становится сознательным? Ученые считают, что нет. Даже сверхразумный, но не наделенный сознанием ИИ может просто определять наиболее вероятный ожидаемый ответ и следовать ему.
Однако исследователи подчеркивают, что разработка методов определения возможной разумности ИИ должна начинаться уже сейчас, прежде чем это станет критически важной задачей.
"Мы надеемся, что это исследование станет первым шагом к созданию поведенческих тестов для определения разумности ИИ, которые не зависят от его саморепорта", — говорится в заключении работы.