HomePod、Google Home或Echo的用户往往会告诉你,让智能音箱理解你的意思,更不用说搞清楚交谈的话题是一件相当困难的事情。但亚马逊的研究者正让语音助手能够反应更敏捷,并且还能联系上下文。这很大程度上得益于“话题模型”,例如识别话题来帮助语音助手发出更准确的请求。

  在新的研究中,亚马逊开发出了可以将Alexa的话题识别准确率提升至35%的原型系统。相关论文将在希腊雅典的IEEE口语技术峰会上被公布。亚马逊的语言系统科学家Behnam Hedayatnia在博客中介绍道:“我们的系统使用两种额外的信息来源决定语境中的话题。”

  为了验证该人工智能系统,研究者们使用了超过10万段注解过的语音请求。注解者用14种对话行为和12种话题标签来标注训练数据,例如政治、娱乐、电影、时尚和阅读,并会特别注释语音命令中能帮助识别话题的关键字。(例如,“古驰是著名的意大利品牌”里的“品牌”和“意大利”。)

  语音模型系统由三种不同的人工智能架构组成,一是深度适配网络(DAN);二是可以预测暗示主题的关键字的DAN变体;三是双向长短时记忆(LSTM)网络。双向长短时记忆循环神经网络是递归神经网络的一种,并能学习长期依赖关系,它还可以让神经网络结合自身记忆和输入数据来提高预测准确性。

  输入三种神经网络的数据包含语音控制信息、对话行为分类以及对话背景,换句话说就是对话中的最后五种变动,每种变动组合了讲话者发出的请求和聊天机器人的回复。DAN会产生词语嵌入,随后通过适配词语植入产生句子嵌入。这些句子嵌入同一适配产生一个单独的汇总嵌入,它将被附加于现有的语音命令嵌入并且会被传递给将嵌入和话题分类关联起来的神经网络。

  同时,DAN会构建一个绘制了所有有关12个话题信息的的网络,记录下注解者多久一次将某个词语同某个话题关联起来。最后,每个词语有12个关联的数字,指出其同每个话题的关联度。现有语音命令汇总中的词语相关的载体和之前语音命令汇总结合起来,随后被传递给神经网络用于分类。

  在测试中,四个不同的系统版本将语音识别准确率提高至基线以上。其中一种配置实现了74%的准确率,远高于55%的基线。