Почему ИИ не спасает от фейков: предубеждения, цензура и «ложная правда» / Все новости / Главная

В сети каждый день появляются сомнительные ссылки от друзей, сенсационные заголовки и видео, которые выглядят слишком правдоподобно, чтобы быть подделкой. По мере того как дезинформация становится всё хитрее, искусственный интеллект обещает стать нашим спасителем и отделить факты от вымысла. Но действительно ли эти инструменты работают?

Ответ, к сожалению, «не совсем», — говорит Дорсаф Саллами (Dorsaf Sallami). В своей докторской диссертации в Университете Монреаля она тщательно разобрала ограничения систем, которые якобы умеют ловить фейковые новости. Вывод учёной прост и тревожен: техническая точность маскирует серьёзные системные недостатки.

Зеркало вместо фактчекера

«Современные ИИ-системы построены на фундаментальной ошибке, — объясняет Саллами. — Когда они помечают материал как ложный, они не проверяют факты, как журналист. Они просто считают вероятности на основе того, что видели во время обучения».

Иными словами, нейросеть не сверяется с реальностью. Она отражает свой обучающий набор — со всеми его предубеждениями и пробелами. Парадоксально, но именно сейчас технологические гиганты вкладывают миллиарды: Meta маркирует контент, Google тестирует прототип на базе Gemini, а X использует Grok для анализа в реальном времени.

«Арсенал впечатляет, но какой толк от системы, которая в лаборатории показывает 95 % точности, а в жизни нарушает приватность, предвзято относится к определённым СМИ и может стать оружием цензуры?» — спрашивает исследовательница.

Кто решает, что считать правдой?

Ещё одна фундаментальная проблема — отсутствие единого понимания, что такое дезинформация. Чтобы обучить модель, ей нужно тысячи примеров с метками «правда» или «ложь». Для простых задач (кошка или собака) это несложно. А вот с новостями даже эксперты расходятся во мнениях.

Саллами называет это «проблемой основополагающей истины». Фактчекеры, которые дают метки для обучения, часто непрозрачны, а некоторые работают на коммерческой основе. Кроме того, большие языковые модели вроде ChatGPT и Gemini позволяют создателям фейков имитировать достоверные источники лучше, чем раньше. То, что модель считала ложью вчера, сегодня уже может пройти как правда.

Встроенные предубеждения

Системы также несут в себе серьёзные предубеждения. Некоторые модели чаще обвиняют в дезинформации женщин, если в тексте используется «женский» стиль речи. Другие дискриминируют не-западные источники или воспроизводят политические и географические стереотипы.

«Пока индустрия гонится за точностью, почти никто не изучает, какую дискриминацию эти инструменты сеют, — подчёркивает Саллами. — Справедливость не должна быть второстепенной — она обязана быть частью самой производительности».

В своей работе исследовательница предлагает конкретные решения. Один из них — фреймворк CoALFake, который позволяет адаптировать уже обученный детектор к новым областям (научной или коммерческой дезинформации) без обучения с нуля.

Дорсаф Саллами не ограничилась критикой. Она создала Aletheia — браузерное расширение, доступное обычным пользователям. В отличие от «чёрных ящиков», оно не просто ставит галочку «правда/ложь». Оно показывает доказательства из проверенных источников, объясняет причины подозрений и даёт человеку самому принять решение.

В ядре расширения — модуль VerifyIt. Он автоматически сверяется с внешними фактчекерами и выдаёт вердикт понятным языком. Тесты на материалах PolitiFact (PolitiFact) показали надёжность около 85 % — выше, чем у многих существующих инструментов. Плюс лента свежих фактчеков и форум, где пользователи могут обсуждать находки.

 

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: