[发明专利]基于参数共享非自回归语音识别训练解码方法及系统在审
申请号: | 202110699356.9 | 申请日: | 2021-06-23 |
公开(公告)号: | CN113488029A | 公开(公告)日: | 2021-10-08 |
发明(设计)人: | 温正棋;田正坤 | 申请(专利权)人: | 中科极限元(杭州)智能科技股份有限公司 |
主分类号: | G10L15/06 | 分类号: | G10L15/06;G10L15/02;G10L19/18;G10L19/26;G10L25/24;G10L25/27;G10L25/30 |
代理公司: | 杭州浙科专利事务所(普通合伙) 33213 | 代理人: | 杨小凡 |
地址: | 310019 浙江省杭州市*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 参数 共享 回归 语音 识别 训练 解码 方法 系统 | ||
1.基于参数共享非自回归语音识别训练方法,其特征在于包括如下步骤:
S11,获取语音训练数据和对应的文本标注训练数据,并提取一系列语音训练数据的特征,构成声学特征序列;
S12,将声学特征序列进行声学编码,输出声学编码状态序列;
S13,将声学编码状态序列和空白填充序列进行非自回归解码,通过解码输出的概率矩阵,结合文本标注训练数据,计算非自回归交叉熵损失LNAR;
S14,将声学编码状态序列和文本标注训练数据进行自回归解码,通过解码输出的概率矩阵,结合文本标注训练数据,计算自回归交叉熵损失LAR;
S15,根据非自回归交叉熵损失LNAR和自回归交叉熵损失LAR加权,得到联合损失LJoint=αLNAR+(1-α)LAR计算梯度,并进行反向传播,α表示非自回归交叉熵损失在联合损失函数中的权重;
S16,循环执行S12至S15,直至达到预设的训练结束条件,完成训练。
2.如权利要求1所述的基于参数共享非自回归语音识别训练方法,其特征在于所述自回归解码,依次进行词嵌入、位置编码、自回归解码层解码和输出映射,自回归解码层包括遮蔽多层自注意力机制层、多头注意力机制层和前馈映射层,将带有起始标记的目标文本序列进行词嵌入,得到的词嵌入表示序列添加位置编码后,输入到遮蔽多层自注意力机制层,每层遮蔽自注意力机制的计算如下:
其中,Q表示查询值、K表示关键值、V表示内容值,dk是向量K的维度,M表示上三角矩阵,对角线上方元素为-INF,对角线下方元素为0,多头注意力机制层将多个遮蔽自注意力机制的输出向量拼接到一起,再通过前馈映射层得到输出结果。
3.如权利要求1所述的基于参数共享非自回归语音识别训练方法,其特征在于所述非自回归解码,依次进行词嵌入、位置编码、非自回归解码层解码和输出映射,非自回归解码层包括多层自注意力机制层、多头注意力机制层和前馈映射层,空白填充序列输入词嵌入,得到的词嵌入表示序列添加位置编码后,输入到多层自注意力机制层,每层自注意力机制的计算如下:
其中,Q表示查询值、K表示关键值、V表示内容值,dk是向量K的维度;
多头注意力机制层将多个自注意力机制的输出向量拼接到一起,再通过前馈映射层得到输出结果。
4.如权利要求2或3所述的基于参数共享非自回归语音识别训练方法,其特征在于所述多头注意力机制层包括多头自注意力机制层和多头编码解码注意力机制层,实现如下:
headi=Attention(QWiQ,KWiK,VWiV)
MultiHeadAttention(Q,K,V)=Concat(head1,...,headh)WO
其中,WiQ、WiK、WiV、WO表示可以学习的权重矩阵,MultiHeadAttention表示多头编码解码注意力机制,对于多头自注意力机制,其中Q=K=V,均表示前一层网络的输出序列,对于多头编码解码注意力机制,其中Q表示前一层网络的输出序列,K=V表示所述声学编码状态序列,MultiHeadAttention将多个输出向量headi拼接到一起后,经过线性层映射到一个固定维度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中科极限元(杭州)智能科技股份有限公司,未经中科极限元(杭州)智能科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110699356.9/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种水泥熟料生料质量控制系统及其使用方法
- 下一篇:一种输电线路智能保护装置