Компания Amazon пытается постоянно улучшать своего голосового ассистента Alexa. Одна из главных задач разработчиков - сделать так, чтобы искусственный интеллект ощущался как живой собеседник. Но как бы реалистично Alexa не строила свою речь, общение с ней не будет выглядеть достоверным без сугубо человеческой способности понимать эмоции собеседника. И, кажется, исследователи Amazon нашли способ решить эту проблему.
По сообщению VentureBeat, разработчики нашли более эффективный способ обучать Alexa чтению человеческих эмоций по голосу. Стандартный метод обучения предполагает, что алгоритму скармливают эмоционально окрашенные образцы голоса, вручную промаркированные соответствующими эмоциями. Впоследствии на основании этих образцов голосовой ассистент распознает эмоции в голосе пользователя.
Новый метод обучения работает иначе. Он использует технологию “состязательного автокодировщика”, подробно описанную в блоге Amazon. Если вкратце - технология представляет собой сложную самообучающуюся нейросеть, части которой используют реальные голосовые образцы наряду со случайно сгенерированными фрагментами. Сеть пытается “дурачить” саму себя, а затем проверяет свою же способность распознавать подделку. При этом способность машины считывать реальные эмоции по голосу возрастает.
Как показали эксперименты, нейросеть, обученная по новому методу, верно распознает эмоции на 4% чаще, чем нейросеть, обученная по старой технологии. Прирост кажется незначительным, но разработчики утверждают, что это только начало. В перспективе технология позволит голосовому ассистенту практически безошибочно понимать настроение человека. А значит, Alexa станет более чутким собеседником. И сможет более умело манипулировать пользователями.