[发明专利]获取语音识别模型的方法、语音识别的方法及对应装置有效
申请号: | 202110270662.0 | 申请日: | 2021-03-12 |
公开(公告)号: | CN113129868B | 公开(公告)日: | 2022-02-25 |
发明(设计)人: | 梁鸣心;付晓寅;白锦峰 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G10L15/06 | 分类号: | G10L15/06;G10L15/26;G10L15/02;G10L15/28 |
代理公司: | 北京鸿德海业知识产权代理有限公司 11412 | 代理人: | 田宏宾 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 获取 语音 识别 模型 方法 对应 装置 | ||
1.一种获取语音识别模型的方法,包括:
获取训练数据,所述训练数据包括语音帧序列及其对应的文本标注,所述语音帧序列包括多于一个的语音帧;
对所述语音帧序列中的各帧进行拼帧处理,得到拼帧序列;
对所述拼帧序列进行降采样,得到跳帧序列;
利用所述拼帧序列以及对应的文本标注训练得到第一语音识别模型;
基于所述第一语音识别模型,利用所述跳帧序列以及对应的文本标注训练得到第二语音识别模型,以利用所述拼帧序列和所述跳帧序列的多阶段训练得到所述第二语音识别模型。
2.根据权利要求1所述的方法,其中,所述对所述语音帧序列中的各帧进行拼帧处理,得到拼帧序列包括:
将所述语音帧序列中的各帧分别与其相邻的前m个帧和后n个帧合并,得到所述拼帧序列中的各帧,所述m和n为预设的正整数。
3.根据权利要求1所述的方法,其中,所述利用所述拼帧序列以及对应的文本标注训练得到第一语音识别模型包括:
将所述拼帧序列的声学特征作为编码器的输入,所述编码器输出的隐向量序列作为解码器的输入,将对应的文本标注作为解码器的目标输出,训练所述编码器和所述解码器,得到包含所述编码器和所述解码器的第一语音识别模型。
4.根据权利要求1所述的方法,其中,所述基于所述第一语音识别模型,利用所述跳帧序列以及对应的文本标注训练得到第二语音识别模型包括:
基于所述第一语音识别模型,将所述拼帧序列的声学特征作为编码器的输入,对所述编码器输出的隐向量序列进行降采样,将降采样后得到的跳帧隐向量序列作为解码器的输入,将对应的文本标注作为所述解码器的目标输出,继续训练所述编码器和解码器,得到第三语音识别模型;
基于所述第三语音识别模型,利用所述跳帧序列以及对应的文本标注训练得到第二语音识别模型。
5.根据权利要求4所述的方法,其中,所述基于所述第三语音识别模型,利用所述跳帧序列以及对应的文本标注训练得到第二语音识别模型包括:
基于所述第三语音识别模型,将所述跳帧序列的声学特征作为所述编码器的输入,所述编码器输出的隐向量序列作为所述解码器的输入,将对应的文本标注作为所述解码器的目标输出,继续训练所述编码器和解码器,得到所述第二语音识别模型。
6.根据权利要求3、4或5所述的方法,其中,所述训练所述编码器和解码器包括:
确定第一损失函数和第二损失函数,所述第一损失函数的目标是最大化输出所述文本标注的后验概率,所述第二损失函数的目标是最大化输出所述文本标注的路径概率和;
利用所述第一损失函数更新所述编码器和解码器的模型参数,以及利用所述第二损失函数更新所述解码器的模型参数。
7.根据权利要求6所述的方法,其中,所述第一损失函数采用交叉熵损失函数,所述第二损失函数采用连接主义时序分类CTC损失函数。
8.一种语音识别的方法,包括:
获取语音帧序列;
对所述语音帧序列中的各帧进行拼帧处理,得到拼帧序列;
对所述拼帧序列进行降采样,得到跳帧序列;
将所述跳帧序列输入第二语音识别模型,获取所述第二语音识别模型输出的文本识别结果;
其中所述第二语音识别模型通过如权利要求1至6中任一项所述的方法预先训练得到。
9.一种获取语音识别模型的装置,包括:
第一获取单元,用于获取训练数据,所述训练数据包括语音帧序列及其对应的文本标注,所述语音帧序列包括多于一个的语音帧;
第一拼帧单元,用于对所述语音帧序列中的各帧进行拼帧处理,得到拼帧序列;
第一跳帧单元,用于对所述拼帧序列进行降采样,得到跳帧序列;
模型训练单元,用于利用所述拼帧序列以及对应的文本标注训练得到第一语音识别模型;基于所述第一语音识别模型,利用所述跳帧序列以及对应的文本标注训练得到第二语音识别模型,以利用所述拼帧序列和所述跳帧序列的多阶段训练得到所述第二语音识别模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110270662.0/1.html,转载请声明来源钻瓜专利网。