В шумной кофейне или на вечеринке мы почти автоматически пытаемся сфокусироваться на голосе собеседника. Но для людей с нарушениями слуха эта задача может превратиться в настоящие испытание. Команда исследователей из Университета Вашингтона представила экспериментальные умные наушники, которые помогают «прорезать» окружающий шум и выделять только голоса участников диалога — причём делают это полностью автоматически.

Новая разработка основана на двух моделях искусственного интеллекта, которые анализируют особенности живой речи и в реальном времени отделяют нужных собеседников от фонового хаоса. Работа была представлена 7 ноября в китайском Сучжоу на конференции EMNLP 2025, а исходный код опубликован в открытом доступе.
ИИ-наушники нового поколения
Сегодня уже существуют устройства, которые могут изолировать речь, но большинство требуют ручной настройки: указать направление, выбрать человека взглядом или «подвинуть» виртуальный аудиопузырь. В новой системе никаких жестов или меню не нужно. Наушники сами определяют, кто участвует в разговоре, и подавляют посторонние голоса, опираясь на естественный ритм диалога.
Как поясняет руководитель проекта Шьям Голлакотта, ключ к точной работе устройства — в закономерностях человеческой речи. Люди разговаривают, чередуя реплики, и этот ритм можно уловить без инвазивных методов. «Ранее, чтобы определить, на кого направлено внимание, приходилось использовать даже имплантированные в мозг электроды. Но реальные разговоры и так содержат подсказки», — говорит исследователь.
В прототипе один ИИ анализирует временные паттерны: «кто и когда говорил», ищет низкое перекрытие реплик и выявляет структуру общения. Второй — очищает аудиопоток и формирует чистый голос собеседников в реальном времени.
Как работает технология
Система активируется, когда пользователь начинает говорить сам — это служит сигналом, что начался диалог. Спустя 2–4 секунды модели определяют участников беседы и начинают подавлять внешние голоса.
Прототип протестировали на 11 добровольцах. Наушники поддерживали общение с участием пользователя и до четырёх других говорящих, без заметной задержки. Испытуемые оценивали разборчивость, подавление шума и общую понятность речи: версия с активированными фильтрами получила более чем вдвое высокие оценки.
Исследователи отмечают, что система пока не идеальна. Перебивания, разговоры вразнобой или новые люди, внезапно вступающие в диалог, могут сбивать ИИ. Но уже сейчас результаты выглядят многообещающе.
Модели обучены на английском, мандаринском и японском языках — поддержку других языков планируют добавить позже.
Почему это важно
Сегодня прототип использует обычные накладные наушники и базовую электронику. Но в перспективе разработчики видят технологию внутри компактных устройств — от беспроводных «затычек» до полноценный слуховых аппаратов и смарт-очков.
Команда Голлакотты уже показала на другой конференции — MobiCom 2025 — что подобные модели способны работать на микрочипах, подходящих по размеру для слуховых аппаратов. Это открывает путь к более доступной и естественной помощи людям с нарушениями слуха — без ручных настроек и сложных интерфейсов.
Авторы подчеркивают: главное преимущество нового подхода — его проактивность. Устройство само понимает, что нужно пользователю, и реагирует мгновенно, не требуя явных команд. Такой «интеллектуальный слух» может стать важным шагом к следующему поколению носимой электроники.
ИИ-наушники из Университета Вашингтона демонстрируют, что будущее персонального звука — это не просто усиление громкости или фильтры шумоподавления. Это умные системы, способные распознавать структуру человеческой речи и адаптироваться к реальным разговорам. Пусть пока это лишь прототип, но он уже показывает, как технологии могут вернуть людям возможность полноценно общаться даже в самых шумных условиях.
