Искусственный интеллект научился идеально подделывать «общественное мнение» / Все новости / Главная

Искусственный интеллект добавил в свой послужной список ещё одну способность — умение почти идеально маскироваться под человека в онлайн-опросах. Новое исследование показывает, что современные модели могут незаметно проникать в системы сбора общественного мнения и даже искажать результаты на национальном уровне.

Как работает «синтетический респондент»

Учёные Дартмутского колледжа представили автономного синтетического участника опросов — по сути, ИИ-бота, созданного на базе больших языковых моделей (LLM). Этот виртуальный «респондент», разработанный политологом Шоном Вествудом, способен обходить большинство систем защиты от ботов, применяемых в онлайн-опросах.

Технология использует всего 500 слов исходного описания, чтобы создать проработанную персональную легенду: возраст, пол, образование, доход, место проживания и другие демографические признаки. Далее начинается имитация поведения: бот выдерживает реалистичное время на чтение вопросов, «водит» мышью как человек, а открытые ответы печатает по буквам — с опечатками и правками.

Такой подход позволяет машине практически идеально раствориться среди реальных пользователей. В ходе 43 тысяч тестов ИИ убедил 99,8% систем, что перед ними человек. Он безошибочно проходил reCAPTCHA, решал логические задачи и избегал специальных «ловушек» — вопросов, которые легко решает машина, но не человек.

Почему это опасно

Согласно расчётам исследователей, для влияния на результаты семи крупных национальных опросов перед выборами 2024 года в США было бы достаточно 10–52 поддельных ответов. Стоимость одного такого «виртуального респондента» — всего около пяти центов, тогда как реальные участники получают порядка $1,50.

Для экспериментов использовались разные модели: o4-mini от OpenAI, DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok3, Gemini 2.5 и другие. Программа при этом модель-независима — её можно запустить через API или локально, используя открытые весовые модели вроде Llama.

Последствия выходят далеко за пределы политических опросов. Многие научные работы в социальных науках, психологии и экономике строятся на данных онлайн-опросов. Если эти данные можно отравить тысячами незаметных ИИ-ответов, то под ударом окажется вся система научных знаний.

«Мы больше не можем быть уверены, что ответы в опросах принадлежат реальным людям. Если ИИ сможет загрязнять данные, он способен разрушить всю экосистему знаний», — предупреждает Вествуд.

Учёный призывает разработать новые методы проверки подлинности участников. По его словам, нужные технологии уже существуют — осталось лишь внедрить их, пока не стало слишком поздно.

Исследование Дартмута — тревожный сигнал для всех, кто опирается на данные опросов, будь то журналисты, политики или учёные. ИИ уже доказал, что может не только отвечать на вопросы, но и искусно выдавать себя за тысячи разных людей. Задача общества — успеть адаптировать инструменты проверки, чтобы сохранить доверие к механизмам демократии и научным данным.

 

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: