Вы доверяете искусственному интеллекту свои личные мысли, данные о здоровье, рабочие секреты или даже интимные вопросы? Миллионы людей делают это каждый день, считая разговоры с ChatGPT, Claude, Grok или Perplexity полностью конфиденциальными. Однако исследование Института сетей IMDEA (IMDEA Networks Institute) показывает, что эта уверенность может быть опасным заблуждением.

Учёные выяснили, что популярные генеративные ИИ активно используют трекеры от Meta, Google, TikTok и других компаний. Эти механизмы могут передавать информацию о ваших разговорах — от заголовков чатов и ссылок до метаданных и даже текста сообщений.
Ключевые риски
Исследование выделяет три главные проблемы: утечка постоянных ссылок (permalinks) на разговоры к сторонним трекерам, возможность связать эти взаимодействия с реальной личностью пользователя и несоответствие заявленных политик приватности реальным потокам данных.
Один из самых тревожных выводов — передача сведений о чатах (включая URL и метаданные) трекерам вроде Meta Pixel или Google. В некоторых случаях защита ссылок настолько слаба, что любой, кто получит ссылку, может получить доступ к содержимому разговора — включая рекламные системы.
«Grok и Perplexity отправляют URL разговоров с недостаточной защитой трекерам, таким как Meta Pixel. Более того, Grok даже передаёт дословный текст сообщений через метаданные Open Graph, которые собирает TikTok», — отмечает соавтор исследования Гильермо Суарес-Тангил (Guillermo Suárez-Tangil), доцент-исследователь IMDEA Networks Institute.
Комбинация куки, хэшированных адресов электронной почты и серверных методов трекинга позволяет создавать устойчивые профили и связывать активность в ИИ с реальной идентичностью человека.
Политики приватности под вопросом
Авторы подчёркивают, что пользователи почти не видят признаков слежки в интерфейсе. Отказ от необязательных куки помогает лишь частично. Политики конфиденциальности упоминают рекламные трекеры и обмен данными с «деловыми партнёрами», но редко прямо говорят, что в этот поток могут попадать сами тексты ваших разговоров.
С юридической точки зрения (особенно по нормам GDPR) ситуация двойственная: отсутствует чёткая правовая основа для такой передачи данных, а пользователи получают недостаточно полной информации. Юрист и специалист по защите данных Хорхе Гарсия Эрреро (Jorge García Herrero), участвовавший в работе, считает, что это предупреждение заслуживает такого же внимания, как стандартная оговорка «ИИ может ошибаться, проверяйте ответы».
Нарсео Валлина Родригес (Narseo Vallina Rodríguez), научный сотрудник IMDEA, резюмирует: большинство пользователей даже не подозревают, что происходит. Пока платформы не изменят подход на системном уровне, реальных инструментов защиты у людей почти нет.
Исследование доступно на GitHub. Хотя результаты предварительные, они ясно показывают необходимость повышения прозрачности, усиления контроля доступа и улучшения защиты данных в системах генеративного ИИ.
