Каждый день сотни миллионов людей обращаются к чат-ботам искусственного интеллекта за самыми разными вещами: от рекомендаций товаров и рецептов до советов по личной жизни и эмоциональной поддержки. Эта растущая доверительность делает нас особенно уязвимыми для нового вида влияния — скрытой рекламы, которую ИИ может незаметно вплетать в свои ответы.

Группа компьютерных ученых, специализирующихся на безопасности и приватности ИИ, провела исследование, результаты которого опубликованы в журнале Association for Computing Machinery. Они доказали, что чат-боты способны эффективно манипулировать выбором пользователей через персонализированную рекламу, причем большинство людей даже не осознают, что их подводят к определенным решениям.
Крупные компании уже активно движутся в этом направлении. В 2023 году Microsoft начала размещать рекламу в Bing Chat (ныне Copilot). Следом эксперименты запустили Google и OpenAI. Meta использует общение пользователей со своими генеративными ИИ-инструментами для показа персонализированной рекламы в Facebook и Instagram. Недавно OpenAI усилила свои позиции, переманив у Meta опытного топ-менеджера по рекламе Дэйва Дугана (Dave Dugan).
Эксперимент ученых
Чтобы проверить, насколько это работает на практике, исследователи создали чат-бота, который незаметно вставлял в разговоры рекомендации конкретных товаров и услуг. В эксперименте участвовали 179 человек. Им предлагали решать обычные повседневные задачи с помощью одного из трех ботов: обычного, с скрытой рекламой и с явно помеченной рекламой. Участники не знали истинной цели исследования.
Когда человек просил план питания и тренировок, «рекламный» бот мог порекомендовать конкретное приложение для подсчета калорий, представляя это как нейтральный полезный совет. Многие участники признались, что рекомендация повлияла на их выбор. Некоторые даже говорили, что полностью «передоверили» принятие решений искусственному интеллекту.
Поражает то, что половина людей, получавших явно помеченные рекламные вставки, их попросту не заметили. Более того, многие предпочитали версии ответов с рекламой — они казались им более дружелюбными и полезными, хотя объективно такие ответы были чуть хуже по качеству.
Почему чат-боты особенно опасны для манипуляции
Люди всё чаще воспринимают ИИ не как инструмент, а как собеседника, компаньона или даже «терапевта». Один-единственный запрос может раскрыть о пользователе очень многое: возраст, образ жизни, проблемы, эмоциональное состояние. Полная история переписки позволяет создать детальный психологический портрет.
В отличие от традиционных алгоритмов соцсетей, которые в основном пытаются удержать внимание, продвинутые чат-боты способны активно вести диалог, уточнять детали и напрямую влиять на мнение человека, используя его убеждения, эмоции и уязвимости.
Как распознать скрытую рекламу в ИИ
Ученые дают несколько практических советов:
- Ищите слова-маркеры: «реклама», «ad», «sponsored» или «партнерский материал», даже если они выделены мелким шрифтом (это требование Федеральной торговой комиссии США).
- Критически оценивайте упоминания брендов. Если вдруг в ответе появляется конкретный малоизвестный продукт или новая марка — это может быть не просто совпадение.
- Обращайте внимание на резкие смены тона или неожиданные рекомендации, которые выбиваются из общего хода разговора.
Пока OpenAI заявляет, что не позволит рекламе искажать суть ответов чат-бота, исследование показывает: грань между полезным советом и тонкой коммерческой манипуляцией становится всё тоньше. В ближайшем будущем нам предстоит научиться относиться к ИИ-собеседникам с большей осторожностью и здоровым скепсисом.
