Технология распознавания лиц, вне всяких сомнений, является полезной и нужной разработкой, но при всех своих достоинствах она может нести и вред, нарушая свободу человека и позволяя проводить слежку за ним. Специально для этих целей и был создан алгоритм, который нарушает работу системы распознавания, не разрешая ей вторгаться в частную жизнь.
Новая система построена на основе глубокого машинного обучения, а значит способна самосовершенствоваться в будущем. Сам же алгоритм использует динамические способы разрушения алгоритмов распознавания. Для разработки системы противодействия ученые использовали два ИИ, которые боролись друг с другом. Один работал для идентификации лиц, а другой пытался ее нарушить. Результатом этой «войны» стало создание особого фильтра (пока только для фотографий), который заменяет определенные пиксели на изображениях таким образом, что человеческий глаз не может увидеть разницы, а вот система распознавания лиц дает сбой. Как заявил автор работы профессор Пархам Аараби, «Сейчас алгоритмы нейронных сетей постоянно совершенствуются и по одному изображению могут узнать очень многое о человеке. И из-за этого конфиденциальность — реальная проблема».
Профессор Аараби протестировал свое изобретение на фотографиях 600 людей различной этнической и гендерной принадлежности. В итоге выяснилось, что система способна снижать долю распознанных лиц со 100% до 0,5%. Но это еще не все. В ходе исследования был обнаружен довольно приятный бонус: система не просто мешает алгоритму распознавать лица, но и не дает считывать цвет кожи, этническую принадлежность, пол, мимику и так далее, делая фото «просто картинкой» для алгоритма распознавания.
Технология распознавания лиц, вне всяких сомнений, является полезной и нужной разработкой, но при всех своих достоинствах она может нести и вред, нарушая свободу человека и позволяя проводить слежку за ним. Специально для этих целей и был создан алгоритм, который нарушает работу системы распознавания, не разрешая ей вторгаться в частную жизнь.
Новая система построена на основе глубокого машинного обучения, а значит способна самосовершенствоваться в будущем. Сам же алгоритм использует динамические способы разрушения алгоритмов распознавания. Для разработки системы противодействия ученые использовали два ИИ, которые боролись друг с другом. Один работал для идентификации лиц, а другой пытался ее нарушить. Результатом этой «войны» стало создание особого фильтра (пока только для фотографий), который заменяет определенные пиксели на изображениях таким образом, что человеческий глаз не может увидеть разницы, а вот система распознавания лиц дает сбой. Как заявил автор работы профессор Пархам Аараби, «Сейчас алгоритмы нейронных сетей постоянно совершенствуются и по одному изображению могут узнать очень многое о человеке. И из-за этого конфиденциальность — реальная проблема».
Профессор Аараби протестировал свое изобретение на фотографиях 600 людей различной этнической и гендерной принадлежности. В итоге выяснилось, что система способна снижать долю распознанных лиц со 100% до 0,5%. Но это еще не все. В ходе исследования был обнаружен довольно приятный бонус: система не просто мешает алгоритму распознавать лица, но и не дает считывать цвет кожи, этническую принадлежность, пол, мимику и так далее, делая фото «просто картинкой» для алгоритма распознавания.
Технология распознавания лиц, вне всяких сомнений, является полезной и нужной разработкой, но при всех своих достоинствах она может нести и вред, нарушая свободу человека и позволяя проводить слежку за ним. Специально для этих целей и был создан алгоритм, который нарушает работу системы распознавания, не разрешая ей вторгаться в частную жизнь.
Новая система построена на основе глубокого машинного обучения, а значит способна самосовершенствоваться в будущем. Сам же алгоритм использует динамические способы разрушения алгоритмов распознавания. Для разработки системы противодействия ученые использовали два ИИ, которые боролись друг с другом. Один работал для идентификации лиц, а другой пытался ее нарушить. Результатом этой «войны» стало создание особого фильтра (пока только для фотографий), который заменяет определенные пиксели на изображениях таким образом, что человеческий глаз не может увидеть разницы, а вот система распознавания лиц дает сбой. Как заявил автор работы профессор Пархам Аараби, «Сейчас алгоритмы нейронных сетей постоянно совершенствуются и по одному изображению могут узнать очень многое о человеке. И из-за этого конфиденциальность — реальная проблема».
Профессор Аараби протестировал свое изобретение на фотографиях 600 людей различной этнической и гендерной принадлежности. В итоге выяснилось, что система способна снижать долю распознанных лиц со 100% до 0,5%. Но это еще не все. В ходе исследования был обнаружен довольно приятный бонус: система не просто мешает алгоритму распознавать лица, но и не дает считывать цвет кожи, этническую принадлежность, пол, мимику и так далее, делая фото «просто картинкой» для алгоритма распознавания.
Комментарии