Разработана система для выявления голосовых дипфейков / Все новости / Главная

В эпоху, когда любой звонок может оказаться подделкой, а доверие к голосу на другом конце провода стремительно тает, борьба с аудиофейками становится одной из ключевых киберзадач. Еще недавно имитировать чужую манеру речи могли лишь талантливые пародисты. Сегодня же несколько минут ― и сервисы синтеза голоса создают убедительного «аудио-двойника» любого человека. От мошенников до политических провокаторов — новые злоумышленники перешли от текстовых манипуляций к эмоционально сильному оружию: фальшивому голосу.

Но у этой истории появляется противовес. Исследователи CSIRO, Federation University Australia и RMIT представили технологию RAIS — Rehearsal with Auxiliary-Informed Sampling, новый инструмент для выявления аудиодипфейков, который обещает долгоиграющую устойчивость к новым типам атак.

Что такое RAIS и почему он важен

Существующие системы обнаружения подделок регулярно проигрывают гонку эволюционирующим дипфейкам. Как только модель натаскивают на старые примеры, появляются новые типы аудиогенерации, которые успешно обходят защиты.

RAIS предлагает другой подход. Он использует концепцию continual learning ― непрерывного обучения без «стирания памяти». Когда нейросеть изучает новые примеры, она не забывает предыдущие, как это часто случается при обычной донастройке моделей.

Исследователи объясняют: простое обучение на свежих образцах приводит к эффекту «катастрофического забывания». Модель, адаптируясь к новым угрозам, теряет способность распознавать старые. RAIS решает эту проблему.

Как работает RAIS: память, метки и умный отбор

В основе метода — двухступенчатый механизм:

1. Память и репетиция

RAIS хранит небольшой, но тщательно отобранный набор старых аудиофрагментов и периодически «проигрывает» их модели, чтобы та не теряла знания. Это напоминает репетицию перед выступлением: повторение закрепляет результат.

2. Дополнительные метки

Вместо простого деления аудио на «фейк» и «не фейк» RAIS генерирует расширенный набор меток. Эти «аудио-подсказки» помогают выбрать максимально разнообразные примеры для обучающей памяти, включая тонкие признаки, которые человек даже не распознаёт.

Благодаря этому подходу RAIS достигает впечатляющего Equal Error Rate всего 1,953%, оставаясь устойчивым на разных типах данных. И что особенно важно — делает это с минимальными вычислительными затратами. Код проекта опубликован на GitHub, что открывает путь дальнейшему развитию.

Глобальная угроза дипфейков

Голосовые дипфейки уже не звучат странно или «роботизировано». Они убедительны, эмоциональны и способны влиять на поведение людей. Исследования подтверждают: аудио вызывает куда более сильный эмоциональный отклик, чем текст, поэтому фейковые голосовые сообщения работают опаснее любой выдуманной цитаты.

Последствия уже выходят за рамки отдельных случаев:

  • в США фейк с «голосом Байдена» призывал избирателей не приходить на выборы;
  • в Италии мошенники подделали голос министра обороны и выманили крупную сумму у бизнесменов;
  • в Словакии в 2023 году фейковые аудиозаписи с имитацией лидера оппозиции распространились за дни до выборов;
  • в корпоративной среде мошенники пытались использовать дипфейк-голос главы крупнейшего мирового рекламного холдинга WPP для доступа к деньгам и персональным данным.

Где подделка становится нормой, там реальность начинает меркнуть. Эксперты называют это «дивидендом лжеца» — когда люди перестают верить не только в фейки, но и в правду.

Почему это важно сейчас

Дипфейки продолжают проникать во все сферы жизни — от политики до киберпреступности. Если раньше подделка ограничивалась текстовыми манипуляциями, то теперь она атакует наиболее чувствительный канал — человеческий голос.

Новая волна технологий, вроде RAIS или экспериментов Вашингтонского университета, направленных на защиту реальных голосов от клонирования, становится критически важной основой цифровой безопасности.

Пока нейросети совершенствуют подделку человеческой речи, детекторы не должны отставать. RAIS показывает, что устойчивость к новым обманным стратегиям возможна: система учится, не забывая, и распознает даже те тонкие признаки подделки, которые человек пропустил бы.

В мире, где фейковый голос может заставить человека перевести деньги или сменить мнение, такие технологии перестают быть просто академическими экспериментами — они становятся необходимой защитой правды.

 

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: