Представьте себе следующую ситуацию. Вы получаете звонок или голосовое сообщение от близкого человека, который сейчас путешествует за границей. Он утверждает, что потерял телефон и деньги и просит вас о помощи. Ранее вы получали электронные письма с подобными просьбами, но, будучи технически подкованным человеком, решили, что вас пытаются “развести”. Но на этот раз никаких сомнений нет - вы собственными ушами слышите голос своего знакомого. Вы переводите деньги. И напрасно. Ведь этот голос сгенерирован при помощи искусственного интеллекта. Из соцсетей преступники получили все необходимые сведения, включая образцы голоса потенциальной жертвы. Затем - сформировали соответствующие голосовые сэмплы при помощи интеллектуального алгоритма.
Пока это - вымышленный сценарий. Но последние успехи искусственного интеллекта делают такое развитие событий все более вероятным. К примеру, самообучающейся системе Google DeepMind AlphaZero понадобилось всего восемь часов, чтобы научиться играть в древнюю китайскую игру Go лучше, чем любому из людей. Подобные самообучающиеся алгоритмы могут быть крайне полезны в науке и экономике.
Палка о двух концах
Как показывает отчет “Злонамеренное использование искусственного интеллекта”, опубликованный недавно исследовательской компанией OpenAI, эта технология может стать палкой о двух концах. С одной стороны, ИИ будет и дальше делать жизнь людей лучше. С другой, преступники, террористы и страны-изгои будут эксплуатировать этот мощный инструмент, чтобы вредить другим.
Злонамеренное использование искусственного интеллекта угрожает не только собственности и приватности людей. В более тревожных сценариях оно может угрожает их жизням. В мире быстро увеличивается количество дронов и других киберфизических систем, вроде беспилотных автомобилей или умных медицинских устройств. Все они могут становиться заманчивыми целям для террористов и киберпреступников. Возможные сценарии включают множество пугающих вещей - от спровоцированных автокатастроф до дронов, узнающих жертву в лицо.
Мир постправды
Еще один пугающий способ применения искусственного интеллекта - влияние на умы людей. Недавно спецпрокурор Соединенных Штатов Роберт Мюллер, возглавляющий расследование ФБР о вмешательстве России в президентские выборы США, заявил, что над процессом срыва голосования в 2016 году работала профессиональная команда из восьмидесяти человек.
А теперь представьте, что в руки такой команды попадает алгоритм, позволяющий создавать поддельные видео, неотличимые от реальных, или поддельные аудиодорожки с голосами любой публичной персоны.
Инструменты, которые позволяют менять лица людей на видео, уже существуют. Пользователь Reddit под логином Deepfakes первым начал использовать подобный алгоритм, чтобы “приклеивать” лица голливудских звезд к телам поноактрис. Пока технология несовершенна, но рано или поздно поддельные видео станут соврешенно неотличимыми от реальных. видеороликов. Проще говоря, любой человек сможет создать реалистичный видеоролик с участием любого другого человека.
Эксперты OpenAI опасаются, что это приведет к окончательной потере какой бы то ни было истины. Представьте, что вам удалось запечатлеть чиновника, берущего крупную взятку. Такое видео больше не будет являться доказательством для обвинения в коррупции. Чиновник просто скажет, что это видео поддельное. И в доказательство представит сотню не менее реалистичных видеороликов, где взятку берут самые разные персоны разной степени абсурдности, от Люка Скайуокера до Папы Римского.
Справедливо и обратное. Умные алгоритмы неизбежно будут использоваться для создания компрометирующих материалов на вполне честных людей. И хотя в подобном “мире постправды” видео перестанет являться объективным доказательством чего-либо, поддельные ролики все же смогут подмочить чью-то репутацию и посеять в массах сомнения.
Забудьте о блестящих журналистских расследованиях и разоблачениях, меняющих ход истории. Искусственный интеллект способен окончатлеьно уничтожить песчинки правды, похоронив их в океане фейков. А значит, миром будут править наиболее отъявленные лжецы и подонки.
Проще говоря, ничего не изменится.