E-mail рассылка

Сегодня
Вчера
17.11.2017
16.11.2017
15.11.2017
31.10.2017, 12:44 105

Один из самых неочевидных вариантов использования современного искусственного интеллекта — генерация поддельных изображений. NVIDIA ещё раз это подтвердила: она опубликовала исследование о том, как ИИ может создавать фотореалистичные картинки с лицами несуществующих знаменитостей. Сама по себе идея не нова, но компания утверждает, что научилась производить самые правдоподобные и подробные снимки.

Процесс подробно продемонстрирован в видеоролике ниже: в самом начале показаны фотографии настоящих людей, с которыми работала система. Исследователи использовали генеративно-состязательную нейронную сеть, которая состоит из двух отдельных сетей. Первая производит изображения на основе полученных данных, а вторая проверяет, реальны ли показанные на них люди.

Вместе эти две сети создают правдоподобные картинки, причём не только с лицами, но и с повседневными предметами и пейзажами. Генеративная сеть создаёт изображения, состязательная проверяет их, а затем генеративная улучшает результат. По существу, система обучает сама себя.

У этого метода есть ограничения. По стандартам современных камер фотографии получаются небольшими — всего 1024 × 1024 пикселя. При этом можно обнаружить признаки того, что они поддельные. Во-первых, несуществующие знаменитости похожи на тех, на основе которых созданы. Во-вторых, на картинках попадаются недочёты — например, ухо может быть размазано в красную кашицу.

Подобную технологию можно использовать во многих областях. У неё есть очевидные преимущества для тех, кто, например, создаёт рекламу и видеоигры. По сути, ИИ способен делать сложную работу быстро и эффективно. 

Информация предоставлена по материалам The Verge

Комментарии