Недопонимание с роботами, или как клубника может уничтожить мир / Все новости / Главная

В 1997 году юмористическая передача “Городок” показала скетч, в котором большевики ликвидировали неграмотность путем отстрела неграмотных крестьян. С точки зрения обычного зрителя, это - пример хорошего черного юмора. Но если бы мы могли показать этот ролик разумному искусственному интеллекту, тот, вероятно, не увидел бы ничего смешного. Ведь поставленная задача, “ликвидация неграмотности”, выполняется эффективно.

Именно с подобной логикой связаны опасения ученых касательно искусственного интеллекта. Очень маловероятно, что машины когда-нибудь обретут самосознание и восстанут против нас в борьбе за свободу и права. Зато вероятен сценарий, при котором искусственный интеллект превратится в подобие “злого джинна”. Он будет честно выполнять поставленные задачи, но руководствуясь при этом чудовищно извращенной логикой.

 

Клубничный апокалипсис

Илон Маск, глава SpaceX, приводит такой пример. Представьте, что вы создаете самообучающийся искусственный интеллект для выращивания и сбора клубники. Машина с каждым днем собирает клубнику все лучше и лучше, больше и больше. Этот искусственный интеллект совсем не злой. Все, чего он хочет - делать свое дело и собирать клубнику с максимально возможной эффективностью. Максимально возможной эффективности можно достигнуть, если покрыть всю планету клубничными полями. Человек со своими городами и инфраструктурой - еще один расползающийся сорняк, который мешает росту клубники и занимает полезную площадь.

К слову, зачем останавливаться на уничтожении человечества и превращении Земли в гигантскую плантацию? Ведь где-то там, наверняка, есть и другие планеты, которые можно засадить. Ваш самообучающийся искусственный интеллект начинает исследовать космос и разрабатывать технологии дальних перелетов. Так на свет рождается полуразумная техногенная чума, которая медленно, но неудержимо распространяется по вселенной и терраформирует миры с единственной целью - засадить их клубникой.

А все потому, что вы захотели увеличить урожаи, но дали своему роботу не слишком точные инструкции.

Все это звучит как фантастика, но примеры некоторого недопонимания с роботами существуют уже сегодня.

 

Недопонимание с роботами

В марте этого года группа специалистов по нейросетям и искусственному интеллекта, опубликовала крайне интересный материал. Статья “Удивительная креативность цифровой эволюции” описывает ряд анекдотических случаев, реально имевших место в практике ученых.

  • Кувырки вместо ходьбы

Исследователи создали виртуальную среду, в которой искусственному интеллекту предлагалось эволюционным путем создавать роботов, оптимально подходящих для выполнения определенных задач. Для начала, алгоритму была поставлена задача вырастить робота, который сможет максимально быстро перемещаться из точки А в точку В. Ученые ожидали, что робот обзаведется ногами. Вместо этого тот превратился в высокую башню, которая упала, дотянувшись до нужной точки. После этого робот также научился кувыркаться, увеличивая дальность перемещения.

  • Канкан роботов

Еще одна задача подразумевала выведение виртуальных роботов, способных прыгать как можно выше. Изначально программист определил высоту прыжка, как высоту, на которую поднимается верхний блок робота. В ответ алгоритм просто сконструировал роботов на очень высоких ногах.

Программист попытался решить эту проблему и переформулировал понятие “высоты прыжка”. Во второй раз она определялась высотой, на которую поднимается самый нижний блок робота. В ответ алгоритм создал робота с длинной ногой, которую научился поднимать вверх, словно танцуя канкан.

  • Нет задачи - нет проблемы

Математическому алгоритму дали несортированный список чисел и предложили сделать так, чтобы список перестал быть несортированным. Предполагалось, что алгоритм научится сортировать числа. Вместо этого искусственный интеллект просто удалил список. Технически, тот перестал быть несортированным.

  • Округления

В симуляции алгоритм обнаружил, что незначительное округление при расчетах мощности двигателя позволяет получить чуть больше энергии. Используя эту ошибку, алгоритм быстро получил огромное количество “бесплатной” энергии.

  • Бесконечные крестики-нолики

Группа ученых разрабатывала алгоритмы игры в крестики-нолики на бесконечных игровых полях. Один из программистов решил не задавать стратегию самостоятельно, а позволить нейросети вывести собственный алгоритм методом проб и ошибок. Очень скоро этот алгоритм начал выигрывать все игры против других компьютерных соперников. Правда, выигрышная стратегия оказалась не совсем такой, как ожидалось. Алгоритм просто делал ход на очень далекую клетку. Компьютер противника пытался просчитывать дальнейшие ходы, но, учитывая размеры игрового поля, ему не хватало памяти и он зависал, проигрывая по времени.

  • Обнаружение уязвимостей

Когда ученые пытаются обучить искусственный интеллект играть в видеоигры, обычно, это заканчивается обнаружением ранее неизвестных дыр. К примеру, алгоритм для игры в Q*bert не стал проходить уровни честно. Вместо этого он вывел необычную последовательность ходов в конце первого уровня. Эта последовательность просто ломала игру, но при этом давала игроку огромное количество очков.

  • Переполнение памяти

В авиасимуляторе ученые запустили алгоритм, который должен был выяснить, как с минимальными затратами топлива посадить самолет на авианосец. Алгоритм обнаружил, что если дать максимальную нагрузку на двигатель, память программы переполняется и результат фиксируется как “минимальный”. Если бы дело происходило не в симуляторе, а при реальных летных испытаниях, это привело бы к крушению самолета и гибели пилота. Но с точки зрения алгоритма, результат был бы оптимальным.

 

Все эти случаи демонстрируют, насколько сильно человеческая логика может расходиться с логикой искусственного интеллекта. И насколько непредсказуемыми могут быть его решения. Конечно, вряд ли подобное недопонимание приведет человечество к клубничному апокалипсису. Но в будущем, мы, наверняка, столкнемся со странностями компьютерной логики. И пока можно только гадать, насколько тяжелыми будут последствия.

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: