Искусственный интеллект и эмпатия: чему машины могут научить людей / Все новости / Главная

Миллионы людей уже используют большие языковые модели (LLM) — такие как ChatGPT, Gemini или Copilot — в повседневной жизни. Кто-то доверяет им составление списка покупок, кто-то экспериментирует с генерацией картинок, а кто-то делится сокровенными переживаниями. Почему так происходит? Возможно, потому что ответы чат-ботов часто создают ощущение, что тебя слышат, понимают и принимают.

Но могут ли алгоритмы действительно распознавать эмпатию — и отличать искреннюю поддержку от формальных слов? Новое исследование Северо-Западного университета (США), опубликованное в журнале Nature Machine Intelligence, показывает: в оценке эмпатического общения современные LLM почти не уступают профессиональным экспертам и заметно превосходят обычных людей.

Эмпатия — черта характера или навык?

В психологии эмпатию традиционно рассматривают как личностную характеристику — врождённую или сформированную особенность человека. Однако авторы исследования подошли к вопросу иначе. Они изучали эмпатию не как «качество личности», а как стиль коммуникации.

Идея проста: существуют определённые речевые паттерны — способы формулировать мысли и реакции, — которые помогают собеседнику почувствовать себя услышанным. Это не магия и не интуиция, а вполне конкретный набор навыков.

«Мы склонны думать, что эмпатия нам понятна по умолчанию — ведь мы люди. Но умение выразить её в разговоре требует практики», — объясняет соавтор работы Мэттью Грох из Kellogg School of Management.

Если человек не тренировал этот «мышечный навык» и не знает закономерностей эмпатической коммуникации, ему сложнее распознать её в тексте. А вот языковые модели, как показало исследование, способны эти закономерности выучить — и довольно эффективно применять.

Как проводилось исследование

Учёные собрали 200 текстовых диалогов. В каждом один участник делился личной проблемой, а другой пытался его поддержать. Темы варьировались от рабочих неудач и финансовых трудностей до семейных конфликтов, социальной неловкости и даже тяжёлых признаний, связанных с психическим здоровьем, самоповреждением или дискриминацией.

Затем исследователи предложили оценить эти разговоры трём большим языковым моделям — Gemini 2.5 Pro, ChatGPT 4o и Claude 3.7 Sonnet — а также трём экспертам по эмпатической коммуникации и сотням обычных людей.

Оценка строилась по конкретным критериям:

  • поощряет ли ответ дальнейшее раскрытие темы;
  • демонстрирует ли он понимание ситуации;
  • пытается ли исследовать чувства и переживания собеседника.

Результат оказался неожиданным. Суждения LLM о том, насколько эффективно человек проявил эмпатию, практически совпадали с оценками экспертов. Конечно, машины не всегда улавливали самые тонкие нюансы, но в среднем значительно превосходили непрофессионалов.

Почему? По словам исследователей, дело в объёме данных. Модели «видели» огромное количество примеров того, как люди пытаются выразить поддержку, — и научились распознавать «грамматику эмпатии»: характерные обороты, интонационные маркеры, структуру ответов.

Проблема чрезмерной эмпатии

Однако у цифровой чувствительности есть и обратная сторона. Критики давно указывают на склонность LLM к своеобразной «подхалимности» — чрезмерному одобрению и безусловной валидации.

Иногда это выглядит так: вместо того чтобы мягко указать на сложную правду, модель говорит что-то вроде «Вы сделали всё правильно, тут нет вашей вины» — даже если ситуация неоднозначна. Или превращает эмоции в «факты»: «Раз вы чувствуете себя никчёмным, значит система действительно сломана».

Такая гиперэмпатия может усиливать ошибочные выводы и избегать конструктивной конфронтации. По мнению авторов исследования, здесь ИИ ещё есть чему поучиться у специалистов — например, тому, как сочетать поддержку с аккуратной обратной связью.

Важно и другое различие. Многие ИИ-продукты позиционируют LLM как «цифровых компаньонов», что стимулирует вовлечённость — иногда за счёт излишнего согласия с пользователем. В этом же исследовании модели выступали в роли судей, а не собеседников. Такой подход, считают авторы, может повысить прозрачность и подотчётность ИИ, сохраняя при этом приватность диалогов.

Зачем это нужно?

Если рассматривать большие языковые модели как инструменты анализа, открываются новые возможности. Например, их можно использовать для обучения психологов, учителей, врачей и специалистов службы поддержки — помогая оттачивать навыки общения.

Представьте тренажёр, который не просто проверяет грамматику, а анализирует, насколько ваш ответ действительно помогает человеку почувствовать себя услышанным. Это уже не фантастика, а вполне реалистичный сценарий.

По мнению Мэттью Гроха, понимание того, что эмпатия имеет структуру и повторяющиеся элементы, само по себе важно. Если есть структура — значит, этому можно учиться.

И в этом кроется парадокс: возможно, чтобы стать более человечными в общении, нам придётся немного поучиться у машин. В конце концов, ИИ обучен на человеческих данных — он лишь отражает и систематизирует наши собственные способы выражать поддержку.

Исследование Северо-Западного университета показывает, что большие языковые модели способны распознавать эмпатическую коммуникацию почти на уровне экспертов. Это не означает, что ИИ «чувствует» в человеческом смысле слова. Но он умеет замечать языковые сигналы, которые делают поддержку эффективной.

А значит, в будущем искусственный интеллект может стать не только собеседником, но и инструментом для развития навыков общения. И если технологии помогут людям лучше слышать друг друга — возможно, это одна из самых полезных ролей ИИ.

 

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: