[发明专利]基于鉴别性训练的定制语音唤醒优化方法及系统有效
申请号: | 201710343427.5 | 申请日: | 2017-05-16 |
公开(公告)号: | CN107123417B | 公开(公告)日: | 2020-06-09 |
发明(设计)人: | 俞凯;陈哲怀 | 申请(专利权)人: | 上海交通大学;苏州思必驰信息科技有限公司 |
主分类号: | G10L15/02 | 分类号: | G10L15/02;G10L15/06;G10L15/14;G10L15/22 |
代理公司: | 上海交达专利事务所 31201 | 代理人: | 王毓理;王锡麟 |
地址: | 200240 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 鉴别 训练 定制 语音 唤醒 优化 方法 系统 | ||
一种基于鉴别性训练的定制语音唤醒优化方法及系统,在给定带标注的声学数据后,结合初始的基于神经网络的声学模型,通过神经网络前向传播得到逐帧声学概率;结合标注序列及逐帧声学概率,得到标注唤醒词的建模概率;利用在大量文本上统计得到的音素级语言模型,构建为相应的搜索网络;基于音素级语言模型的搜索空间和逐帧声学模型可以进行唤醒词竞争项建模,得到后验概率;结合唤醒词竞争项建模和标注唤醒词建模,进行声学模型的鉴别性训练;通过鉴别性训练得到的声学模型采用基于唤醒词置信度与自动估计阈值的比较以判别是否唤醒。
技术领域
本发明涉及的是一种语音识别领域的技术,具体是一种基于鉴别性训练的定制语音唤醒优化方法及系统。
背景技术
可定制的语音唤醒(Voice Wake-up)系统的任务是指从一段连续的语音中自动发现并定位一些事先指定的命令词(唤醒词)。可定制的特性体现在唤醒词检测模型不依赖于用户指定的唤醒词,从而实现无需修改模型即可方便更改用户唤醒词。主要的语音唤醒技术包括早期的动态时间规整法,如今的基于隐马尔科夫模型的方法,以及基于深度学习的方法。
发明内容
本发明针对现有技术无法明确区分唤醒词和非唤醒词语之间的区分性不高,或通过定制语音模型才能实现从而提高了实现成本的同时降低了鲁棒性等缺陷和不足,提出一种基于鉴别性训练的定制语音唤醒优化方法及系统,利用前后文无关音素的声学解码进行高效搜索,从而完成对唤醒词置信度选择。
本发明是通过以下技术方案实现的:
本发明包括以下步骤:
步骤1)在给定带标注的声学数据后,结合初始的基于神经网络的声学模型,通过神经网络前向传播得到逐帧声学概率;
步骤2)结合标注序列及逐帧声学概率,得到标注唤醒词的建模概率。
步骤3)利用在大量文本上统计得到的音素级语言模型,构建为相应的搜索网络,具体是指:在测试阶段根据关键词构建搜索网络,而后在搜索网络上结合声学模型进行搜索。本发明采用基于上下文无关音素的声学模型,这是由于经过了鉴别性训练,声学模型具有更强的序列级信息,因此采用上下文相关音素和上下文无关音素对声学模型的建模效果没有差别。基于上下文无关音素的声学模型,所构建的搜索网络只有传统方法的三分之一大小,而对唤醒性能没有影响。
所述的搜索是指:在测试阶段结合已训练好的声学模型和已构建好的搜索网络,进行逐帧维特比解码,搜索得到发音特征序列对应的最优唤醒词序列,及其相应的识别概率,作为唤醒词置信度。
步骤4)基于音素级语言模型的搜索空间和逐帧声学模型可以进行唤醒词竞争项建模,得到后验概率。
步骤5)结合唤醒词竞争项建模和标注唤醒词建模,进行声学模型的鉴别性训练。
步骤6)通过鉴别性训练得到的声学模型对唤醒词和非唤醒词的区分性更强,能够得到更好的唤醒结果;通过该声学模型采用基于唤醒词置信度与自动估计阈值的比较以判别是否唤醒。
由于可定制唤醒系统不限定唤醒词,对于不同唤醒词所使用的阈值也很难统一,本发明采用针对不同唤醒词自动估计阈值的方法,一定程度上解决阈值难以统一的问题,从而提升系统唤醒的准确性。自动估计阈值方法基于对filler(填充物)的识别概率,将其作为阈值。当唤醒词置信度大于阈值时,系统将输出唤醒词,否则不输出唤醒词,等待下次唤醒语音。
所述的filler是由所有的音素并行构建而成的搜索空间,其识别概率是指在该搜索空间上基于已训练得到的声学模型和声学特征序列进行解码搜索得到的识别概率。
技术效果
与现有技术相比,本发明基于鉴别性训练、音素级语言模型搜索空间以及前后文无关音素的声学解码,从而具有更好的序列级建模,提高唤醒率、更好的序列级非唤醒词建模,降低误唤醒率以及相对更少的模型搜索计算量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海交通大学;苏州思必驰信息科技有限公司,未经上海交通大学;苏州思必驰信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710343427.5/2.html,转载请声明来源钻瓜专利网。