[发明专利]语音唤醒方法、装置、存储介质及智能设备有效
申请号: | 202010198736.X | 申请日: | 2020-03-20 |
公开(公告)号: | CN111091839B | 公开(公告)日: | 2020-06-26 |
发明(设计)人: | 徐泓洋;王广新;杨汉丹 | 申请(专利权)人: | 深圳市友杰智新科技有限公司 |
主分类号: | G10L17/22 | 分类号: | G10L17/22;G10L17/18;G10L17/06 |
代理公司: | 深圳市明日今典知识产权代理事务所(普通合伙) 44343 | 代理人: | 王杰辉 |
地址: | 518000 广东省深圳市南山区招商*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 语音 唤醒 方法 装置 存储 介质 智能 设备 | ||
本发明揭示了一种语音唤醒方法、装置、存储介质及智能设备;方法包括:通过Encoder将输入的语音序列进行编码计算,输出与语音序列同行列数的第一矩阵;通过前馈神经网络对第一矩阵进行线性再表达,输出第二矩阵,第二矩阵的行列数与第一矩阵行列数相同;通过soft‑attention对第二矩阵进行维度压缩得到注意力向量;根据注意力向量识别出多个类别的概率;根据类别的概率结果,判断是否执行唤醒功能。通过Encoder、前馈神经网络、soft‑attention等结构,借鉴Transformer的内部结构,最终生成包含局部和全局信息的注意力向量,得到类别的概率,根据类别的概率结果,判断是否执行唤醒功能,参数量更少,实现端到端的语音唤醒判断,使语音唤醒方法的响应速度更快,适用于语音唤醒中。
技术领域
本发明涉及到语音唤醒领域,特别是涉及到一种语音唤醒方法、装置、存储介质及智能设备。
背景技术
现有翻译、语音识别等领域中,当前构建语音识别模型可选择的基础网络结构包括CNN、RNN/LSTM以及多头注意力机制等,各家厂商都会选择合适自己应用需求的网络去构建语音识别模型;基于多头注意力机制的transformer所能达到的效果要比基于cnn/lstm结合CTC(Connectionist Temporal Classification)结构进行预测的模型效果好,说明多头注意力机制在特征提取方面有着特有的优势,但是相比之下transformer结构更加的复杂,模型也比较大,不适合语音唤醒的场景中。
发明内容
本发明的主要目的为提供一种语音唤醒方法、装置、存储介质及智能设备,可以解决现有Transformer结构不适合应用于语音唤醒的问题。
本发明提出一种语音唤醒方法,包括如下步骤:
通过Encoder将输入的语音序列进行编码计算,输出与语音序列同行列数的第一矩阵;
通过前馈神经网络对第一矩阵进行线性再表达,输出第二矩阵,第二矩阵的行列数与第一矩阵行列数相同;
通过soft-attention对第二矩阵进行维度压缩得到注意力向量;
根据注意力向量识别出多个类别的概率;
根据类别的概率结果,判断是否执行唤醒功能。
进一步地,根据类别的概率结果,判断是否执行唤醒功能的步骤包括:
提取概率最大的类别作为识别的类别;
判断识别的类别是否为目标类别:
若是,则判断识别的类别的概率是否达到阈值;
若达到,则执行类别对应的唤醒功能;
若没达到,则忽略识别结果,不执行唤醒功能。
进一步地,通过Encoder将输入的语音序列进行编码计算,输出与语音序列同行列数的第一矩阵的步骤,包括:
通过N层叠加的Encoder将输入的语音序列进行编码计算,输出与语音序列同行列数的第一矩阵,N为正整数。
进一步地,根据注意力向量识别出多个类别的概率的步骤,包括:
将注意力向量输入到全连接层进行分类,得到多个类别;
根据softmax函数计算得到属于每个类别的概率。
进一步地,语音序列和第一矩阵行列数为1*99*40。
进一步地,注意力向量行列数为40*1。
进一步地,通过Encoder将输入的语音序列进行编码计算,输出与语音序列同行列数的第一矩阵的步骤之前,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市友杰智新科技有限公司,未经深圳市友杰智新科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010198736.X/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种商业保理管理方法及系统
- 下一篇:一种探测apk文件劫持行为的方法及系统