Искусственный интеллект научился рисовать почти идеально. Раньше в сгенерированных картинках сразу бросались в глаза кривые пальцы, странные зубы или бессмысленный текст. Сегодня эти огрехи почти исчезли. Но эксперты по “цифровой криминалистике” нашли новую ахиллесову пяту: ИИ пока не понимает фундаментальных законов физики — как ведут себя свет, тени и перспектива в реальном мире. Простая линейка или внимательный взгляд на отражения могут выдать подделку быстрее, чем любой сложный алгоритм.

Исследование, опубликованное в журнале Science, показывает: современные генераторы изображений стали мастерски имитировать то, что мы привыкли видеть в кино и на фотографиях, но они по-прежнему «слепы» к реальной геометрии и оптике. Именно это сейчас остаётся одним из самых надёжных способов отличить настоящее фото от ИИ-фейка.
Точка схода — главный детектор лжи
Хани Фарид (Hany Farid), профессор Калифорнийского университета в Беркли и один из основателей цифровой криминалистики, уже несколько лет успешно использует этот приём. Он обращает внимание на простые вещи, которым учат на первом курсе художественной школы: параллельные линии в реальном мире сходятся в одной точке — так называемой точке схода.
Возьмём сгенерированное ИИ изображение солдат, идущих по коридору. На первый взгляд всё выглядит правдоподобно. Но стоит провести линии по плиткам пола — и сразу видно ошибку. В реальности параллельные линии должны сойтись в одной точке. ИИ часто «забывает» об этом правиле.

То же самое работает с отражениями. Даже если зеркало выглядит убедительно, линии, соединяющие объект и его отражение, должны быть параллельны и сходиться в одной точке. Простая линейка мгновенно разрушает иллюзию.

Солнечные тени подчиняются тем же законам. Солнце настолько далеко, что его лучи приходят к нам практически параллельно. Поэтому линии, соединяющие края предмета и края его тени, тоже должны сходиться в одной точке.

Раньше ИИ выдавал себя грубыми ошибками — теперь он научился их прятать. Изображения стали кинематографичными, яркими и драматичными — именно такими, какими мы привыкли видеть мир в фильмах. Но физика остаётся неподвластной нейросетям. По крайней мере, пока.
Фарид подчёркивает: проверка перспективы требует времени и внимания, которых у обычного пользователя в соцсетях обычно нет. Именно поэтому такие фейки продолжают успешно распространяться.
Исследователи предупреждают: не стоит полностью полагаться на автоматические ИИ-детекторы. Они могут быть точнее человеческого глаза, но сильно зависят от того, на каких данных их обучали. Если картинка сильно отличается от тренировочного набора, программа может ошибиться.
Интересный парадокс добавляет другое исследование: иногда доказать, что фото настоящее, сложнее, чем поймать подделку. Чем дольше вы смотрите на изображение и не находите в нём ни одной ошибки — тем выше вероятность, что оно настоящее. Отсутствие явных косяков само по себе становится уликой.
