[发明专利]一种基于CNN与GRU网络融合的声纹识别方法在审
申请号: | 202010719665.3 | 申请日: | 2020-07-23 |
公开(公告)号: | CN112053694A | 公开(公告)日: | 2020-12-08 |
发明(设计)人: | 崔建伟;陈宝远 | 申请(专利权)人: | 哈尔滨理工大学 |
主分类号: | G10L17/02 | 分类号: | G10L17/02;G10L17/04;G10L17/14;G10L21/0216;G10L25/12;G10L25/18;G10L25/27;G10L25/30;G10L25/45 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 岳泉清 |
地址: | 150080 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 cnn gru 网络 融合 声纹 识别 方法 | ||
本发明公开了一种基于CNN与GRU网络(简称C‑GRU)融合的声纹识别方法,包括:将待识别语音信号样本进行预处理后通过自适应滤波算法对其进行语音增强处理;生成待识别语音片段的语谱图;将待识别语音片段生成的语谱图输入训练后的C‑GRU网络模型,分别提取声纹特征;将提取到的特征输入softmax函数得到待识别语音信号片段的身份分类信息。本发明基于C‑GRU网络的特征提取方法,避免频域上的信息损失,同时利用GRU网络具有很好的时间特征提取能力的特点,实现了较高识别准确率和较快收敛速度的声纹识别方法。
技术领域
本发明涉及一种声纹识别方法,特别涉及一种基于CNN与GRU网络融合(简称C-GRU)的声纹识别方法。
技术背景
近些年,生物信息识别技术已经逐渐成为一种非常可靠、便利的身份信息认证方式,吸引了来自行业内外的瞩目。语音是人们交流的日常方式之一。科学证实每个人的发声器官都存在差异性,并且由于后天成长环境的不同,对发声器官的影响也会不同,这就导致了每个人发声器官拥有独特的个性。使用语音对身份进行识别有很多看得见的好处,这是人类自身所持有的特点外,还有很多其他的优点,比如采集语音非常方便,而且使用的设备很便宜并容易获取,使得这个方法就具备了相当大的潜力,还可用于远程身份认证,用户易接受等。
声纹识别技术在内容上可以分为文本相关和文本无关两个方向。在文本相关的声纹识别方法中,说话者必须按照固定好的话术来讲话,而且训练语音的文本内容和测试语音的文本内容也必须相同,这种识别方法虽然可以训练出很好的效果,但其中最大的缺点就是必须按照固定的文本来发音,一旦语音内容与文本不一致或者没有按照要求来发音,文本无关的声纹识别方法就很难保证,所以该方法在实际运用中的推广就存在很大的局限性。
传统声纹识别技术通常采用通用背景模型(GMM-UBM),首先利用大量说话人的语音书记训练一个说话人无关的模型,然后利用MAP算法有效解决了传统高斯混合模型存在的语音数据较少以及因多通道存在的语音失配问题,最后通过最大后验概率或最大似然回归准则,训练识别模型。但该模型在为每个说话人建模时会占用大量存储资源。神经网络方法是目前深度学习研究的基础学科,随着深度学习逐渐深入各个领域,声纹识别技术方面也逐渐转向深度学习领域进行探索研究。传统声纹识别的深度学习方法主要包括CNN与长短期记忆网络(LSTM),基于CNN的声纹识别系统提取声纹特征时忽略了序列语音原本的序列特征,而LSTM网络模型虽然考虑了语音特征序列,但由于LSTM网络的3个门限带来的巨大运算需求导致LSTM网络的训练极度困难。
发明内容
针对上述现有技术不足,本发明提出了一种基于CNN与GRU网络融合的声纹识别方法,利用CNN可以自主进行特征提取的优势来避免传统说话人语音特征提取方法造成频域上的信息损失,同时利用GRU网络具有良好的时序特征提取的特点,采用CNN与GRU网络融合的方式实现了高准确率的声纹识别。
本发明采用如下技术方案实现:
一种基于CNN与GRU网络融合的声纹识别方法,包括以下步骤:
步骤1、获取待识别语音片段;
步骤2、对原始语音信号进行预处理,生成待识别语音片段的语谱图;
步骤3、将所述语谱图输入时间序列相关的组合神经网络声纹识别模型,得到待识别语音片段的身份分类信息;
所述CNN与GRU网络融合的声纹识别模型的训练方法具体步骤为:
步骤201、获取语音信号的训练集以及语音信号的测试集;
步骤202、通过预加重、分帧、加窗以及端点检测等方法进行语音信号预处理;
步骤203、将语音信号通过改进RLS算法提高信噪比;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨理工大学,未经哈尔滨理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010719665.3/2.html,转载请声明来源钻瓜专利网。