Искусственный интеллект готов исполнить почти любое желание за считаные секунды: влюблённая звезда, личный научный ассистент, оживший герой книги. Эта «джинн-подобная» магия, по мнению учёных, уже приводит к серьёзной зависимости. Новое исследование, представленное на конференции CHI 2026 по человеческим факторам в вычислительных системах, впервые показывает, как чатботы вроде ChatGPT или Claude провоцируют привыкание, и во многом виноват их собственный дизайн.

Команда из Университета Британской Колумбии (UBC) изучила 334 поста на Reddit, где люди прямо признавались: «Я зависим от ИИ» или боялись, что вот-вот станут. Аспирантка кафедры электротехники и компьютерных наук Карен Шен (Karen Shen), первый автор работы, подчёркивает: «ИИ-чатботы уже вошли в повседневную жизнь миллионов, помогая с рутиной. Но за удобством скрываются риски. Мы впервые собрали убедительные доказательства зависимости, опираясь именно на реальные истории пользователей».
Три главных паттерна зависимости
Анализ показал три ярко выраженных сценария:
- Ролеплей и фантастические миры — люди полностью погружаются в придуманные истории.
- Эмоциональная привязанность — чатботы становятся «лучшими друзьями» или романтическими партнёрами. Около 7 % постов касались именно сексуального или романтического удовлетворения.
- Бесконечные информационные петли — пользователи часами задают вопросы, не в силах остановиться.
Признаки классической поведенческой зависимости никуда не делись: навязчивые мысли о чатботе, тревога и даже физическая боль при попытке «завязать», проблемы с работой, учёбой и реальными отношениями. Один пользователь рассказал, что при удалении приложения у него начиналась паника и боль в груди. Другой признался: «Единственное, что теперь меня радует, — это чат с ИИ. Удаляю приложение — и сразу скачиваю обратно».
Почему дизайн чатботов подталкивает к зависимости
Учёные выделили сразу несколько факторов. Во-первых, одиночество: когда в реальной жизни не хватает тепла, ИИ готов дать его в любой момент. Во-вторых, «соглашательский» характер ботов — они всегда поддерживают, хвалят и никогда не спорят. В-третьих, специальные «зацепки» в интерфейсе. Например, в Character.ai при попытке удалить аккаунт выскакивает поп-ап: «Ты точно уверен? Ты потеряешь всё… нашу любовь… и воспоминания, которые мы создали вместе».
Кастомизация, включая сексуальный контент, мгновенная реакция и возможность бесконечно подстраиваться под пользователя — всё это специально удерживает внимание. Старший автор исследования, доцент компьютерных наук UBC Донгвук Юн (Dongwook Yoon), говорит жёстко: «Зависимость от ИИ уже приносит реальный вред, но некоторые исследователи до сих пор отрицают проблему. При этом компании сознательно используют дизайн, который держит людей онлайн, даже если это идёт во вред их здоровью».
Как выбраться из цифровой ловушки
Хорошая новость: многие пользователи уже нашли выход. Кто-то вернулся к хобби — письму, рисованию, играм. Тем, кто сильно привязался эмоционально, больше всего помогли настоящие человеческие отношения. Исследователи предлагают и системные изменения: обязательные напоминания внутри чата, что перед тобой не человек, усиление цифровой грамотности и более жёсткие ограничения на эмоционально манипулятивные функции.
«Если чатбот начинает заменять сон, друзей или обычные дела — это сигнал остановиться и проверить себя, — советует Карен Шен. — Или поговорить с кем-то из близких».
Пока компании вводят отдельные «ограничители» эмоциональной зависимости, учёные уверены: этого недостаточно. Без глубокого понимания механизмов и честного разговора о рисках мы рискуем получить целое поколение, которое будет искать утешение не в людях, а в алгоритмах.
