Компания Google разработала новую систему искусственного интеллекта, которая способна обучаться прохождению компьютерных игр, вырабатывая для каждой из них собственные стратегии по итогам серий испытаний, сообщает Bloomberg.
Авторство эксперимента принадлежит стартапу DeepMind Technologies, который Google приобрела в прошлом году за $500 млн. Молодая компания представила прибор, соединяющий когнитивные свойства нейронов человека и вычислительные возможности компьютера. Уже тогда эксперты сошлись во мнении, что разработка может приблизить человечество к созданию искусственного интеллекта.
Искусственный интеллект или «агент», как его называют в Google, учат играть в ретро-игры, разработанные американской компанией Atari. При этом искусственный интеллект не получает каких-либо сведений о правилах игры и должен научиться играть в нее самостоятельно. После прохождения уровня или успешного завершения игры система получает эквивалент похвалы или награды. Всего «агент» освоил 49 игр и предложил для каждой уникальную стратегию. В 29 играх искусственный интеллект уже обыгрывает экспертов.
Целью эксперимента не было найти лучшие стратегии в видеоиграх. Разработчики ставили перед собой более прикладные задачи. В будущем совместные разработки Google и DeepMind Technologies могут быть применены в создании беспилотных автомобилей, цифровых ассистентах и научных исследованиях климата и космологии.
В первую очередь ученым нужно было доказать, что это первый значительный шаг на пути к доказательству того, что самообучающиеся системы могут работать и решать сложные задачи, которые даже у человека вызывают трудности. «Это детский шажок на пути к достижению этой грандиозной цели, но очень важный шажок», - комментирует Демис Хассабис, основатель DeepMind.
Многие помнят случай, когда еще в 1997 году программа Deep Blue обыграла в шахматы гроссмейстера Гарри Каспарова. Издание The Guardian отмечает, что тогда правила игры были заложены в программу, а в эксперименте Google «агент» учится в ходе игры.
В первый раз, когда искусственный интеллект видит игру, он получает только информацию о расположении объектов на экране и счете. Дальше действует методом проб и ошибок – случайным образом нажимает кнопки и определяет, какие действия приводят к успеху. На освоение одной игры «агенту» требуется около 600 попыток в течение двух недель.
Для некоторых игр система предложила очень неожиданные решения, чем сильно удивила ученых. Тем не менее, создатели искусственного интеллекта вынуждены признать, что он уступает человеческому мозгу в играх, где необходимо долгосрочное планирование из-за отсутствия полноценной памяти. Поэтому Google продолжает искать способы внедрения в систему долговременной памяти.
Напомним, ранее IGate рассказывал о том, что компания Microsoft также продолжает совершенствовать искусственный интеллект.