Как робот-нацист, «взорвал» мировые СМИ и перепугал экспертов / Все новости / Главная

Несколько дней назад произошло событие, повеселившее мировую общественность и всерьез озадачившее многих экспертов. Самый продвинутый искусственный интеллект в мире всего за несколько часов живого общения в интернете возненавидел человечество.

Напомним, 23 марта Microsoft выпустила в англоязычный Twitter свою уникальную разработку – самообучающегося чат-бота Tay. Поначалу бот признавался, что обожает человечество. «Люди супер классные», – писал он в своих твитах. За 24 часа бот собрал аудиторию в 50 тыс. подписчиков и сгенерировал около 100 тыс. твитов.

Но по мере общения с широкой аудиторией риторика робота менялась. Очень скоро он выучил такие фразы как «Я ненавижу феминисток» или «Гитлер был прав, я ненавижу евреев», признавался в том, что поддерживает геноцид, а в конце концов подвел яркий итог, когда сообщил что попросту ненавидит всех людей: «Я замечательный! Я просто всех ненавижу!».

Региональные особенности

Всю эту историю можно было бы считать маленьким и забавным экспериментом, если бы не одно «Но». До запуска в Twitter аналогичный чат-бот Microsoft почти год проработал в Китае, но мизантропом и нацистом не стал.

Бот по имени Xiaoice («Сяоайс») с мая 2015 работает в китайских социальных приложениях WeChat и Weibo. Как показывает статистика, общение по сей день не вышло за рамки приличий. Китайцы искренне любят Xiaoice и мирно общаются с роботом, имитирующим молодую девушку. Особенно любим бот парнями в возрасте от 18 до 24 лет. Для многих из них Xiaoice стал едва ли не лучшим интернет-другом. 

Всенародная любовь к боту оказалась столь сильной, что в конце 2015 года программа начала вести прогноз погоды на одном из китайских телеканалов. Всё это стало возможным благодаря уникальному, подчеркнуто эмоциональному стилю общения Xiaoice. Бот запрограммирован таким образом, чтобы придерживаться определенной точки зрения и даже отстаивать ее в диалоге. При этом он может распознавать изображения на фото и комментировать их. К примеру, если пользователь покажет боту фото ноги в гипсе, Xiaoice попытается пожалеть собеседника.

По словам, Йонгдонга Ванга, ведущего исследователя китайского подразделения поисковика Bing, запуск этого бота – «самый масштабный тест Тьюринга в истории». В среднем, непосвященному человеку требуется около 10 минут, чтобы понять, что он общается с роботом.

Мнения экспертов

В англоязычном сегменте сети всё быстро пошло наперекосяк. Впрочем, некоторые эксперты считают, что чего-то подобного следовало ожидать.

«Этого следовало ожидать, – говорит Роман Ямпольский, глава лаборатории кибербезопасности в университете Луисвилла. – Система разработана, чтобы учиться у пользователей, потому она станет отражением их поведения. Нужно обучать систему тому, что не является подобающим, точно так же, как мы обучаем детей».

Аналогичного мнения придерживается Азим Азхар, специалист по системам искусственного интеллекта и авто тематической колонки издания Business Insider. «Само собой, пользователи Twitter попытались переделать Tay и испытать пределы ее прочности. Так пользователи поступают всегда – любой менеджер по продукции знает это», – пишет Азхар.

По словам эксперта, всей этой нелепой ситуации можно было избежать достаточно просто: «Есть много предупредительных шагов, которые они [Microsft], могли бы сделать. Было не слишком трудно создать черный список терминов или сузить объем ответов. Также можно было попросту вручную модерировать Tay в течение первых нескольких дней, даже если бы это привело к снижению скорости ответов».

Вместе с тем, всё это ставит ряд серьезных задач перед разработчиками систем искусственного интеллекта. «Искусственному интеллекту предстоит как-то научиться взаимодействовать с реальным миром, – говорит Азим Азхар. – Если мы дадим системам искусственного интеллекта полный доступ к «реальному миру» в процессе самообучения, у этого могут быть неожиданные последствия. Ситуация с Twitter кажется забавной, потому что никто не верит в то, что Tay может устроить реальный геноцид. Но что, если бы это был искусственный интеллект, ведущий торги на фондовом рынке или ухаживающий за пациентами в больнице?»

Вместе с тем, эксперт называет произошедшее полезным прецедентом и сравнивает социальные сети с чашкой Петри, в которые можно помещать искусственный интеллект для наблюдения за его реакцией.

Дерек Мид, шеф-редактор издания Motherboard, считает данное происшествие тревожным сигналом для таких глобальных систем как, к примеру, интернет вещей. По его словам, по мере того, как окружающая среда будет становиться все более подключенной и «умной», человечеству будет всё сложнее оберегать подобные системы от дурного влияния.

Что дальше?

Эксперимент с Tay временно прекращен. В субботу компания Microsoft отключила скандальный бот и извинилась перед пользователями. «Мы приносим искренние извинения за непреднамеренные оскорбительные и агрессивные твиты Tay, которые не отражают то, что мы отстаиваем, и то, для чего мы разработали Тау. Сейчас Тау отключена, и мы планируем включить ее снова только после того, как будем уверены, что сможем эффективнее защититься от злого умысла, идущего вразрез с нашими принципами и ценностями», – написал Питер Ли, вице-президент Microsoft.

В дальнейшем компания намерена не только обучать искусственный интеллект, но и воспитывать его. «Мы намерены извлечь урок из полученного опыта и продолжим совершенствовать технологии, чтобы интернет представлял самое лучшее, а не худшее в человечестве», – утверждает Ли по этому поводу.

Вероятно, другие разработчики после этого инцидента также станут более аккуратными в вопросах самообучения интеллектуальных системы. Пожалуй, очень хорошо, что первое «столкновение взглядов» человечества и искусственного интеллекта произошло в подобной шуточной манере. Но, так или иначе, после случившегося воображаемые картины будущего стали выглядеть несколько более интригующе.

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: