В последние годы технологический прогресс наглядно доказал, что человеческая особь - существо предсказуемое и неоригинальное. Алгоритмы поисковых систем, социальных сетей и различных рекомендательных сервисов научились очень точно предугадывать поведение пользователя на основе его предыдущих действий и предпочтений. Имея достаточное количество данных о вас, искусственный интеллект способен предсказать, чего вам захочется еще до того, как вы это осознаете. В общем, неудивительно,что подобные технологии не остались без внимания правительства.
Робот-пограничник
В ближайшее время пассажиры некоторых европейских аэропортов столкнутся с новым видом проверки. На пунктах пропуска будут установлены детекторы лжи, приводимые в действие искусственным интеллектом.
Пассажиры, въезжающие в Европу из стран, не входящих в состав ЕС, будут вынуждены отвечать на вопросы виртуального пограничника. Вопросы будут вполне стандартными - имя, дата рождения, цель путешествия, содержимое багажа и так далее. Но хитрая машина будет не только слушать ответы, но и оценивать то, как именно человек отвечает на вопросы. Если алгоритму покажется, что пассажир отвечает неуверенно или попросту врет, робот начнет говорить “скептичным голосом”. Эта обратная связь должна позволить человеку скорректировать свои ответы на более честные. Но если и это не поможет, вмешается живой пограничник и начинается более детальная проверка пассажира, включающая сбор биометрической информации.
Осторожное тестирование
Программа под названием iBorderCtrl разработана специалистами Университета Метрополитен в Манчестере (Британия). Поначалу система будет установлена на четырёх пограничных пунктах в Греции, Латвии и Венгрии. В тестовом режиме этот полиграф будет работать шесть месяцев.
Радует то, что подобная проверка пока не планируется как принудительная. Тестированию будут подвергаться только пассажиры, которые дадут на это письменное согласие в соответствующей форме.
Осторожность, с которой власти ЕС подходят к новой технологии, понятна. Во-первых, ее точность пока далека от идеала. Ранее в этом году исследование MIT показало, что алгоритмы, призванные распознавать эмоции и мимические реакции, в разы чаще ошибаются, когда тестирую людей с темной кожей. Лабораторные испытания iBorderCtrl показали результат в 75%. Разработчики уверяют, что точность может быть повышена до 85%, но даже они признают, что создать абсолютно безошибочный алгоритм просто невозможно. В общем, с этической точки зрения новая технология выглядит довольно спорной и опасной.