腾讯AI Lab 8篇论文入选,从0到1解读语音交互能力 | InterSpeech 2018

原标题:拥有高质量的人机交互体验,离不开『定制化』语音合成

原标题:腾讯AI Lab 8篇论文入选,从0到1解读语音交互能力 | InterSpeech
2018

在人机交互中,语音交互已经成为必不可少的交互形式。自然、清晰、流畅的语音是交互体验中重要的一个环节,这就离不开语音合成技术。

雷锋网AI科技评论按:Interspeech
会议是全球最大的综合性语音信号处理领域的科技盛会,首次参加的腾讯 AI
Lab共有8篇论文入选,居国内企业前列。这些论文有哪些值得一提的亮点?一起看看这篇由腾讯
AI Lab供稿的总结文章。 另外,以上事件在雷锋网旗下学术频道 AI
科技评论数据库产品「AI 影响因子」中有相应加分。

极限元的语音合成技术采用国际先进的数据驱动技术,利用精心设计的语音语料库进行声学模型和文本处理模型的训练,得到的模型深度挖掘了语音语言特性,合成的语音清晰、自然、亲切、具有高表现力,媲美真人发声。

9 月 2 到 6 日,Interspeech 会议在印度海得拉巴举办,腾讯 AI Lab
首次参加,有 8
篇论文入选,位居国内企业前列。该年度会议由国际语音通信协会
ISCA(International Speech Communication
Association)组织,是全球最大的综合性语音信号处理领域的科技盛会。

而随着人机交互市场需求的不断变化,定制化语音合成成为发展趋势。以人机交互中家庭生活场景为例,智能音箱算是一个典型应用,市场上的智能音箱同质化严重,销售情况并不乐观,抓住用户痛点,调动用户使用频次,或许也是提高销售的一种有效手段。试想,拥有同样功能的智能音箱,如果声音是嗲气的小姐姐,或者是呆萌可爱的童声,又或者是喜欢的偶像声音,无论是哪一种,这样真实丰满的人设声音,是不是更容易打动用户,从而调动用户的使用频次。

腾讯 AI Lab
也在业界分享语音方面的研究成果,今年已在多个国际顶级会议和期刊上发表了系列研究成果,涵盖从语音前端处理到后端识别及合成等整个技术流程。比如今年
4 月举办的 IEEE 声学、语音与信号处理国际会议(ICASSP 2018),是由 IEEE
主办、全球最大、最全面的信号处理及其应用方面的顶级学术会议,腾讯 AI Lab
也入选论文 4
篇,介绍了其在多说话人语音识别、神经网络语言模型建模和说话风格合成自适应方面的研究进展。

图片 1

在研究方面,腾讯 AI Lab
提出了一些新的方法和改进,在语音增强、语音分离、语音识别、语音合成等技术方向都取得了一些不错的进展。在落地应用上,语音识别中心为多个腾讯产品提供技术支持,比如「腾讯听听音箱」、「腾讯极光电视盒子」,并融合内外部合作伙伴的先进技术,在语音控制、语义解析、语音合成(TTS)等方面都达到了业内领先水平。

极限元的定制化语音合成服务能够满足丰富的个性化声音设定,如林志玲的嗲气十足,郭德纲幽默逗趣,稚气呆萌的童声、游戏动漫角色声、各类方言等。极限元的定制化语音合成服务支持录音人选型、录音采集、语料标注,还能实现模型迭代训练、合成引擎优化,支持在线、离线模式,适用于多种平台,可应用于多个领域。全方位地为有需要的企业和用户提供专属声音,满足用户在不同应用场景下的个性化音色需求。只需要提供少量发音人样本,通过快速自适应训练,即可合成出高自然度的个性化语音,极大的增强了用户的体验感。

本文将基于智能音箱的基本工作流程介绍腾讯 AI Lab
在语音方面的近期研究进展。

极限元语音合成技术专业MOS分可达4.0,拥有标配版女声和男声,女声包括标准型甜美型、萝莉型;男声包括标准型、浑厚型、清爽型。极限元已与百度、腾讯、搜狗、奇虎360、语文出版社等众多客户建立了长期稳定的合作关系。

首先,我们先了解一下音箱语音交互技术链条。

图片 2

图片 3

让声音富有情感和表现力,一直是语音合成技术的一大难点。而极限元在情感语音合成领域,与国际接轨,其创始团队源自中科院自动化研究所并成立“智能交互联合实验室”,号称语音合成界的“黄埔军校”;在人工智能领域有近20年技术积累,在国际会议和期刊上发表论文400余篇,申请语音及音频领域专利100余项;作为负责人、科研骨干参与多项国家自然基金项目、国家863项目和国家重点研发计划等项目,获得音视频情感竞赛第二名、北京市科学进步二等奖、中国专利奖优秀奖、Eurospeech大会奖等多种奖项。

智能音箱的最典型应用场景是家庭,在这种场景中用户与音箱设备的距离通常比用户在智能手机上使用语音应用的距离远很多,因此会引入较明显的室内混响、回声,音乐、电视等环境噪声,也会出现多说话人同时说话,有较强背景人声的问题。要在这样的场景中获取、增强、分离得到质量较好的语音信号并准确识别是智能音箱达到好的用户体验所要攻克的第一道难关。

极限元致力于为呼叫中心、智能机器人、智能家居、车载导航、有声读物等相关应用场景提供更加优质的语音合成服务,为用户提供高质量的智能交互体验。返回搜狐,查看更多

麦克风阵列是这一步最常用的解决方案之一,比如腾讯听听就采用了由 6
个麦克风组成的环形阵列,能够很好地捕捉来自各个方位的声音。

责任编辑:

麦克风采集到声音之后,就需要对这些声音进行处理,对多麦克风采集到的声音信号进行处理,得到清晰的人声以便进一步识别。这里涉及的技术包括语音端点检测、回声消除、声源定位和去混响、语音增强等。另外,对于通常处于待机状态的智能音箱,通常都会配备语音唤醒功能。为了保证用户体验,语音唤醒必须要足够灵敏和快速地做出响应,同时尽量减少非唤醒语音误触发引起的误唤醒。

经过麦克风阵列前端处理,接下来要做的是识别说话人的身份和理解说话内容,这方面涉及到声纹识别、语音识别和模型自适应等方面的问题。

之后,基于对说话内容的理解执行任务操作,并通过语音合成系统合成相应语音来进行回答响应。如何合成高质量、更自然、更有特色的语音也一直是语音领域的一大重点研究方向。

腾讯 AI Lab 的研究范围涵盖了上图中总结的音箱语音交互技术链条的所有 5
个步骤,接下来将依此链条介绍腾讯 AI Lab 近期的语音研究进展。

1)前端

采集到声音之后,首先需要做的是消除噪声和分离人声,并对唤醒词做出快速响应。

在拾音和噪声消除方面,腾讯 AI Lab 的 Voice Processing(简称
AIVP)解决方案集成了语音检测、声源测向、麦克风阵列波束形成、定向拾音、噪声抑制、混响消除、回声消除、自动增益等多种远场语音处理模块,能有效地为后续过程提供增强过的清晰语音。发表于
Symmetry 的论文《一种用于块稀疏系统的改进型集合-元素比例自适应算法(An
Improved Set-membership Proportionate Adaptive Algorithm For A
Block-sparse System)》
是在回声消除方面的研究。

图片 4

远场语音处理的各个模块

在语音唤醒方面,腾讯 AI Lab 的 Interspeech 2018
研究《基于文本相关语音增强的小型高鲁棒性的关键词检测(Text-Dependent
Speech Enhancement for Small-Footprint Robust Keyword
Detection)》
针对语音唤醒的误唤醒、噪声环境中唤醒、快语速唤醒和儿童唤醒等问题提出了一种新的语音唤醒模型——使用
LSTM RNN
的文本相关语音增强(TDSE)技术,能显著提升关键词检测的质量,并且在有噪声环境下也表现突出,同时还能显著降低前端和关键词检测模块的功耗需求。

图片 5

基于文本相关语音增强的关键词检测架构

2)声纹识别

声纹识别是指根据说话人的声波特性进行身份辨识。这种技术有非常广泛的应用范围,比如根据不同家庭用户的偏好定制个性化的应用组合。声纹系统还可用于判断新用户的性别和年龄信息,以便在之后的互动中根据用户属性进行相关推荐。

声纹识别也存在一些有待攻克的挑战。在技术上存在信道失配、环境噪声、短语音、远场等难题,在应用上还有录音冒认、兼容能力、交互设计等挑战。声纹模型还应当具备兼容确认和辨别功能,支持隐式更新和隐式注册,以便随用户使用时间的增长而逐步提升性能。

图片 6

支持隐式注册的声纹模型的性能随用户使用时长增长而提升

腾讯 AI Lab
除了应用已实现的经典声纹识别算法外(GMM-UBM、GMM/Ivector、DNN/Ivector、GSV),也在探索和开发基于
DNN embedding
的新方法,且在短语音方面已经实现了优于主流方法的识别效果。腾讯 AI Lab
也在进行多系统融合的开发工作——通过合理布局全局框架,使具有较好互补性的声纹算法协同工作以实现更精准的识别。相关部分核心自研算法及系统性能已经在语音顶级期刊上发表。

其中,被 Interspeech 2018
接收的论文《基于深度区分特征的变时长说话人确认(Deep Discriminative
Embeddings for Duration Robust Speaker Verification)》
提出了一种基于
Inception-ResNet
的声纹识别系统框架,可学习更加鲁棒且更具有区分性的嵌入特征。

图片 7

同样入选 Interspeech 2018
的论文《从单通道混合语音中还原目标说话人的深度提取网络(Deep Extractor
Network for Target Speaker Recovery From Single Channel Speech
Mixtures)》
提出了一种深度提取网络(如下图所示),可在规范的高维嵌入空间中通过嵌入式特征计算为目标说话人创建一个锚点,并将对应于目标说话人的时间频率点提取出来。

实验结果表明,给定某一说话人一段非常短的语音,如给定该说话人的唤醒词语音(通常
1S
左右),所提出的模型就可以有效地从后续混合语音中高质量地分离恢复出该目标说话人的语音,其分离性能优于多种基线模型。同时,研究者还证明它可以很好地泛化到一个以上干扰说话人的情况。

图片 8

深度提取网络示意图

3)语音识别

语音识别技术已经经历过长足的发展,现在已大体能应对人们的日常使用场景了,但在噪声环境、多说话人场景、「鸡尾酒会问题」、多语言混杂等方面仍还存在一些有待解决的难题。

腾讯 AI Lab
的语音识别解决方案是结合了说话人特征的个性化识别模型,能够为每位用户提取并保存自己个性化声学信息特征。随着用户数据积累,个性化特征会自动更新,用户识别准确率可获得显著提升。

发表评论

电子邮件地址不会被公开。 必填项已用*标注