[发明专利]一种语种识别方法及识别系统有效
申请号: | 201910708975.2 | 申请日: | 2019-08-01 |
公开(公告)号: | CN110517663B | 公开(公告)日: | 2021-09-21 |
发明(设计)人: | 张劲松;于嘉威;解焱陆 | 申请(专利权)人: | 北京语言大学 |
主分类号: | G10L15/00 | 分类号: | G10L15/00;G10L15/02;G10L15/06;G10L15/16 |
代理公司: | 北京市广友专利事务所有限责任公司 11237 | 代理人: | 张仲波 |
地址: | 100083*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 语种 识别 方法 系统 | ||
1.一种语种识别方法,其特征在于,包括:
将每帧语音信号转换成发音属性特征;
利用所述发音属性特征训练时延神经网络,其中,将所述发音属性特征输入时延神经网络,所述时延神经网络对输入的发音属性特征进行学习和分类,得到每种语种在发音属性特征空间中的分布,即语种模型;
进行语种识别时,将待识别语音的发音属性特征输入已训练好的时延神经网络中,时延神经网络的输出结果为待识别语音和每种语种模型的相似度,其中,相似度最大的语种模型为待识别语音的语种类别;
其中,在将每帧语音信号转换成发音属性特征之前,所述方法还包括:
确定基于帧级别特征的用于识别发音属性的发音属性提取器;
其中,所述确定基于帧级别特征的用于识别发音属性的发音属性提取器包括:
依据预设的音素与发音属性之间的映射关系,将基于音素的训练语料转换为发音属性的标签,得到特征提取模块的训练集;
利用所述训练集训练所述特征提取模块;
其中,所述特征提取模块包含M个发音属性提取器,每个发音属性提取器对应一种发音属性,每种发音属性包括:若干个属性类;每帧语音信号通过每个发音属性提取器后,得到一个后验概率以表示该帧语音信号所属的发音属性的类别,将该帧语音信号的M种不同的发音属性的共Q类不同的属性类的后验概率进行排列,得到发音属性特征,其中,Q表示M种发音属性包含的属性类的数目。
2.根据权利要求1所述的语种识别方法,其特征在于,所述将每帧语音信号转换成发音属性特征包括:
通过M个发音属性提取器,将每帧语音信号转换成由Q类不同的属性类的后验概率所组成的发音属性特征。
3.根据权利要求1所述的语种识别方法,其特征在于,时延神经网络中softmax层的节点个数与待分类的语种个数相同,其中,softmax表示多分类;
softmax层每个节点的最后输出结果是句子层级的,每个节点将一句话中的所有帧的softmax层的输出结果加和取平均作为对应节点的最后输出结果。
4.一种语种识别系统,其特征在于,包括:
发音属性提取器,用于将每帧语音信号转换成发音属性特征;
时延神经网络,用于利用所述发音属性特征训练时延神经网络,其中,将所述发音属性特征输入时延神经网络,所述时延神经网络对输入的发音属性特征进行学习和分类,得到每种语种在发音属性特征空间中的分布,即语种模型;还用于进行语种识别时,将待识别语音的发音属性特征输入已训练好的时延神经网络中,时延神经网络的输出结果为待识别语音和每种语种模型的相似度,其中,相似度最大的语种模型为待识别语音的语种类别;
其中,所述系统还包括:
确定模块,用于确定基于帧级别特征的用于识别发音属性的发音属性提取器;
其中,所述确定模块,用于依据预设的音素与发音属性之间的映射关系,将基于音素的训练语料转换为发音属性的标签,得到特征提取模块的训练集,利用所述训练集训练所述特征提取模块;
其中,所述特征提取模块包含M个发音属性提取器,每个发音属性提取器对应一种发音属性,每种发音属性包括:若干个属性类;每帧语音信号通过每个发音属性提取器后,得到一个后验概率以表示该帧语音信号所属的发音属性的类别,将该帧语音信号的M种不同的发音属性的共Q类不同的属性类的后验概率进行排列,得到发音属性特征,其中,Q表示M种发音属性包含的属性类的数目。
5.根据权利要求4所述的语种识别系统,其特征在于,所述发音属性提取器,用于将每帧语音信号转换成由Q类不同的属性类的后验概率所组成的发音属性特征。
6.根据权利要求4所述的语种识别系统,其特征在于,时延神经网络中softmax层的节点个数与待分类的语种个数相同,其中,softmax表示多分类;
softmax层每个节点的最后输出结果是句子层级的,每个节点将一句话中的所有帧的softmax层的输出结果加和取平均作为对应节点的最后输出结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京语言大学,未经北京语言大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910708975.2/1.html,转载请声明来源钻瓜专利网。