Технология редактирования видеороликов Deepfake, позволяющая минимальными усилиями подменять одно лицо другим при помощи нейронных сетей, вызывает все больше беспокойства у американских политиков. Инициативная группа, состоящая из трех законодателей — двоих демократов и одного республиканца, направила письмо директору Национальной разведки США Дэну Коутсу с просьбой оценить угрозу, которую представляет новая форма фальсификации, а также разработать соответствующие контрмеры и дать рекомендации Конгрессу.
В письме говорится, что «очень реалистичные цифровые подделки», которые демонстрируют «убедительные изображения людей, делающих или говорящих то, что они никогда не делали», могут быть использованы для шантажа и дезинформации.
«Поскольку эта технология продолжает развиваться и становится все более доступной, она может представлять угрозу для публичного дискурса и национальной безопасности Соединенных Штатов», — отмечают авторы письма из Палаты представителей Адам Шифф, Стефани Мерфи и Карлос Курбело.
В заявлении для прессы Курбело уточнил, что «такого рода подделки потенциально могут нарушить целостность нашего общества и вызвать опасные международные и внутренние последствия». По мнению политика, в будущем технологией обязательно воспользуются «агенты влияния из-за рубежа» — в том числе, российские боты, — для того, чтобы повлиять на ход американских выборов. «Как и в случае с любой угрозой, наша разведка должна быть готова бороться с ними», — заявил Курбело.
Первые «глубокие фейки» появились в 2016 году: пользователи Reddit начали использовать передовые разработки в области ИИ, чтобы вставлять лица знаменитостей в видео для взрослых. Термин «Deepfake» сочетает в себе два других — «глубокое обучение» и «подделки». Такие инструменты фактически превращают людей в виртуальных марионеток, синхронизируя их рты с чужой речью или просто заставляя их танцевать.
Напоследок отметим, что политики не впервые обращают внимание на эту технологию. «Меня гораздо больше беспокоит не сама технология, а то, как ее применяют — можно ли использовать ее против детей, например, редактируя обращения их кумиров?», — отметил сенатор-демократ Марк Уорнер в интервью журналистам еще зимой этого года.
/
Технология редактирования видеороликов Deepfake, позволяющая минимальными усилиями подменять одно лицо другим при помощи нейронных сетей, вызывает все больше беспокойства у американских политиков. Инициативная группа, состоящая из трех законодателей — двоих демократов и одного республиканца, направила письмо директору Национальной разведки США Дэну Коутсу с просьбой оценить угрозу, которую представляет новая форма фальсификации, а также разработать соответствующие контрмеры и дать рекомендации Конгрессу.
В письме говорится, что «очень реалистичные цифровые подделки», которые демонстрируют «убедительные изображения людей, делающих или говорящих то, что они никогда не делали», могут быть использованы для шантажа и дезинформации.
«Поскольку эта технология продолжает развиваться и становится все более доступной, она может представлять угрозу для публичного дискурса и национальной безопасности Соединенных Штатов», — отмечают авторы письма из Палаты представителей Адам Шифф, Стефани Мерфи и Карлос Курбело.
В заявлении для прессы Курбело уточнил, что «такого рода подделки потенциально могут нарушить целостность нашего общества и вызвать опасные международные и внутренние последствия». По мнению политика, в будущем технологией обязательно воспользуются «агенты влияния из-за рубежа» — в том числе, российские боты, — для того, чтобы повлиять на ход американских выборов. «Как и в случае с любой угрозой, наша разведка должна быть готова бороться с ними», — заявил Курбело.
Первые «глубокие фейки» появились в 2016 году: пользователи Reddit начали использовать передовые разработки в области ИИ, чтобы вставлять лица знаменитостей в видео для взрослых. Термин «Deepfake» сочетает в себе два других — «глубокое обучение» и «подделки». Такие инструменты фактически превращают людей в виртуальных марионеток, синхронизируя их рты с чужой речью или просто заставляя их танцевать.
Напоследок отметим, что политики не впервые обращают внимание на эту технологию. «Меня гораздо больше беспокоит не сама технология, а то, как ее применяют — можно ли использовать ее против детей, например, редактируя обращения их кумиров?», — отметил сенатор-демократ Марк Уорнер в интервью журналистам еще зимой этого года.
_.jpg">
Американские политики обвинили технологию Deepfake в угрозе национальной безопасности /
Лента новостей /
Главная
Технология редактирования видеороликов Deepfake, позволяющая минимальными усилиями подменять одно лицо другим при помощи нейронных сетей, вызывает все больше беспокойства у американских политиков. Инициативная группа, состоящая из трех законодателей — двоих демократов и одного республиканца, направила письмо директору Национальной разведки США Дэну Коутсу с просьбой оценить угрозу, которую представляет новая форма фальсификации, а также разработать соответствующие контрмеры и дать рекомендации Конгрессу.
В письме говорится, что «очень реалистичные цифровые подделки», которые демонстрируют «убедительные изображения людей, делающих или говорящих то, что они никогда не делали», могут быть использованы для шантажа и дезинформации.
«Поскольку эта технология продолжает развиваться и становится все более доступной, она может представлять угрозу для публичного дискурса и национальной безопасности Соединенных Штатов», — отмечают авторы письма из Палаты представителей Адам Шифф, Стефани Мерфи и Карлос Курбело.
В заявлении для прессы Курбело уточнил, что «такого рода подделки потенциально могут нарушить целостность нашего общества и вызвать опасные международные и внутренние последствия». По мнению политика, в будущем технологией обязательно воспользуются «агенты влияния из-за рубежа» — в том числе, российские боты, — для того, чтобы повлиять на ход американских выборов. «Как и в случае с любой угрозой, наша разведка должна быть готова бороться с ними», — заявил Курбело.
Первые «глубокие фейки» появились в 2016 году: пользователи Reddit начали использовать передовые разработки в области ИИ, чтобы вставлять лица знаменитостей в видео для взрослых. Термин «Deepfake» сочетает в себе два других — «глубокое обучение» и «подделки». Такие инструменты фактически превращают людей в виртуальных марионеток, синхронизируя их рты с чужой речью или просто заставляя их танцевать.
Напоследок отметим, что политики не впервые обращают внимание на эту технологию. «Меня гораздо больше беспокоит не сама технология, а то, как ее применяют — можно ли использовать ее против детей, например, редактируя обращения их кумиров?», — отметил сенатор-демократ Марк Уорнер в интервью журналистам еще зимой этого года.
Комментарии