5 способов распознавания фальшивых видео / Все новости / Главная

Дипфейки, фальшивые видео, сгенерированные искусственным интеллектом, могут стать серьезной проблемой в будущем. Видеоролики, на которых лицо одного актера заменяется на лицо другого, могут выглядеть забавно. Но этот же инструмент однажды может быть использован для создания злонамеренных фальсификаций и манипулирования общественным мнением. В мире, где вы не можете отличить реальную видеозапись от фальшивки, вам приходится ставить под сомнение абсолютно всё, что вы видите на экране. 

Тем не менее, сегодня дипфейки все еще можно распознать невооруженным взглядом, если только знать куда смотреть. Технология дипфейков несовершенна, потому оставляет следы в виде небольших графических артефактов в кадре. Вот пять способов, которыми вы можете распознать фальшивку.

Разница в разрешении

Обращайте внимание на разницу в разрешении деталей лица и остальной части видео. Источники, из которых искусственный интеллект извлекает лицо “донора”, как правило, имеют высокое разрешение. Это необходимо для качественной работы нейросети. Но по этой же причине перенесенное лицо в итоговом ролике может выглядеть более четким и детализированным, чем всё остальное видео. 

Этот эффект особенно четко заметен в юмористическом ролике, где лицо актера Стива Бушеми перенесли на тело Дженнифер Лоуренс:

Обратите внимание на то, насколько сильно размыт логотип премии “Золотой глобус” на заднем плане по сравнению с четким и ярким лицом Бушеми.

Проявление рамки изображения

Искусственный интеллект отлично справляется с перенесением одного лица на другое. Но когда фоновое лицо частично перекрывается каким-либо объектом в кадре, нейросеть начинает сбоить. В такие секунды лицо-”наклейка” начинает немного смещаться, а вокруг него может проявляться едва заметная размытая рамка. 

Отчетливее всего этот эффект заметен на следующем видео. Это - кадры из фильма “Сияние”, где лицо Джека Николсона было заменено на лицо другого актера, Джима Керри:

На большей части ролика наложение выглядит очень естественно. Но в моменте, где герой заглядывает в щель и произносит свою легендарную фразу “Here’s Johnny!” можно заметить небольшой сбой в изображении. 

Непоследовательное масштабирование

Если формы черепов “донора” и “реципиента” очень сильно отличаются, искусственному интеллекту трудно подогнать лицо одного актера под голову другого. В результате, лицо-донор может по разному масштабироваться в зависимости от ракурса камеры. Это очень заметно в ролике, где лицо Сильвестра Сталлоне попытались пересадить на тело Арнольда Шварценеггера в “Терминаторе 2”:

Получившийся персонаж выглядит по-разному, когда камера смотрит на него прямо (0:57) или немного снизу (2:46). В в моменты, когда камера смещается относительно героя, лицо-”наклейка” начинает мельтешить, пытаясь подстроиться под меняющийся ракурс.

Смещение границ

Искусственный интеллект не всегда понимает, какого размера должна быть “наклейка”. В одних кадрах он может использовать целое лицо, а в других - лишь его фрагмент. Как следствие, граница “донорского” лица может смещаться, периодически обнажая черты лица оригинала. 

Этот эффект можно рассмотреть в ролике, где лицо комика Билла Хейдера периодически заменяют на лицо Тома Круза:

Хейдер и Круз имеют похожую форму лица, потому дипфейк выполнен очень качественно. Но все же его выдают скулы и подбородок. Это заметно на моменте 1:03, хотя, признаем, не знай мы о подмене заранее, ни за что бы ее не заметили. 

Несоответствие оттенков

При наложении лица нейросеть старается подгонять его оттенок под тон кожи и освещение на оригинальном видео. Тем не менее, ей не всегда удается сделать это идеально. В новом видеоролике, где лицо Джима Керри пересадили на тело Элисон Бри, этот недостаток видео особенно явно:

Присмотритесь к оттенку кожи по краям и в центре лица. Кожа, принадлежащая Джиму Керри, имеет более желтый оттенок, чем кожа Элисон Бри. Особенно это заметно на скулах, где проходит граница наложения. Как следствие, лицо выглядит так, будто его измазали темным тональным кремом.

 

Безусловно, дипфейки будут прогрессировать в качестве. Возможно, уже через пару лет мы увидим подделки, которые будет невозможно распознать без специализированного софта. Но это должно лишь сделать ваш подход к потреблению информации более взвешенным и избирательным. Технологии создают необычный мир, в котором вы уже не сможете доверять собственным глазам. А потому каждому, кто хочет сохранить способность мыслить критически, придется научиться тщательно отбирать и анализировать факты самостоятельно.

 

Если хотите получать новости через мессенджер, подписывайтесь на новый Telegram-канал iGate

 

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: