[发明专利]一种端到端录音设备源识别方法、识别系统、计算机设备在审
申请号: | 202111313782.0 | 申请日: | 2021-11-08 |
公开(公告)号: | CN114067831A | 公开(公告)日: | 2022-02-18 |
发明(设计)人: | 曾春艳;冯世雄;王志锋;孔帅;余琰;夏诗言 | 申请(专利权)人: | 湖北工业大学 |
主分类号: | G10L25/24 | 分类号: | G10L25/24;G10L25/30;G10L25/51;G06N3/04;G06N3/08 |
代理公司: | 北京金智普华知识产权代理有限公司 11401 | 代理人: | 张晓博 |
地址: | 430068 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 端到端 录音 设备 识别 方法 系统 计算机 | ||
1.一种基于时序超矢量表示学习的端到端录音设备源识别方法,其特征在于,所述基于时序超矢量表示学习的端到端录音设备源识别方法包括:
按时序分帧提取数字音频中的梅尔倒谱系数作为设备源特征,再划分为时序特征片段分别提取高斯均值矩阵,得到时序高斯均值矩阵(Sequential Gaussian Mean Matrix,SGMM)特征;
利用卷积神经网络对时序高斯均值矩阵特征进行深度表示学习,提取深度瓶颈特征;通过双向长短期记忆神经网络提取深度时序瓶颈特征中的时域特性,进行录音设备源的识别分类。
2.如权利要求1所述基于时序超矢量表示学习的端到端录音设备源识别方法,其特征在于,所述基于时序超矢量表示学习的端到端录音设备源识别方法包括以下步骤:
步骤一,提取录音设备源信号中的梅尔倒谱系数MFCC特征,并将每条音频数据保留相同帧数的MFCC特征;
步骤二,利用MFCC特征训练建立高斯混合通用背景模型即GMM-UBM模型,将MFCC特征分段后由GMM-UBM模型提取时序高斯均值矩阵;
步骤三,利用构建的卷积神经网络进行深度表示学习,从时序高斯均值矩阵提取深度瓶颈特征,并保留时序高斯均值矩阵特征的时序结构;
步骤四,进行设备源识别网络时序建模,构建基于双向长短期记忆神经网络的分类模型,利用所述分类模型基于提取的深度瓶颈特征进行录音设备源的识别分类。
3.如权利要求2所述基于时序超矢量表示学习的端到端录音设备源识别方法,其特征在于,所述提取录音设备源信号中的梅尔倒谱系数MFCC特征,并将每条音频数据保留相同帧数的MFCC特征包括:
对录音设备源信号分帧加窗进行预处理;对录音设备源信号进行快速傅里叶变换,并利用一组Mel尺度的三角滤波器组将得到的幅值谱信号进行Mel滤波;
计算每个滤波器组输出的对数幅度谱,并进行离散余弦变换得到MFCC特征,每条录音数据保留前n帧的MFCC特征。
4.如权利要求3所述基于时序超矢量表示学习的端到端录音设备源识别方法,其特征在于,所述对录音设备源信号分帧加窗进行预处理包括:帧长取256ms,并以帧长的1/2作为帧移,使用汉明窗函数进行加窗。
5.如权利要求2所述基于时序超矢量表示学习的端到端录音设备源识别方法,其特征在于,步骤二中,所述利用MFCC特征训练建立高斯混合通用背景模型即GMM-UBM模型,将MFCC特征分段后由GMM-UBM模型提取时序高斯均值矩阵包括:
利用多种录音设备的录音数据训练一个高斯数为n的对角协方差通用背景模型即UBM模型,得到n个高斯混合的权重系数矩阵、均值矩阵和协方差矩阵;利用最大后验估计算法针对训练数据中的每个设备的特征向量,对通用背景模型自适应得到特定设备源的GMM模型;
将提取到的MFCC特征均切分为t个连续特征片段,由GMM-UBM模型提取GMM的均值矩阵,将每个GMM的n个均值矩阵依次连接为总长度为n×输入MFCC维度的均值矩阵,即时序高斯均值矩阵特征。
6.如权利要求2所述基于时序超矢量表示学习的端到端录音设备源识别方法,其特征在于,步骤三中,所述利用构建的卷积神经网络进行深度表示学习,从时序高斯均值矩阵提取深度瓶颈特征,并保留时序高斯均值矩阵特征的时序结构包括:
构建卷积神经网络进行深度表示学习,利用高斯均值矩阵特征训练网络模型并测试;
将训练好的卷积神经网络模型进行深度瓶颈特征的提取,并以高斯均值矩阵特征的时序结构形式保存。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北工业大学,未经湖北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111313782.0/1.html,转载请声明来源钻瓜专利网。