[发明专利]基于深度自编码网络的说话人性别自动识别方法及系统有效
申请号: | 201810402685.0 | 申请日: | 2018-04-28 |
公开(公告)号: | CN109545227B | 公开(公告)日: | 2023-05-09 |
发明(设计)人: | 王志锋;段苏容;左明章;田元;闵秋莎;夏丹;叶俊民;陈迪;罗恒;姚璜 | 申请(专利权)人: | 华中师范大学 |
主分类号: | G10L17/02 | 分类号: | G10L17/02;G10L17/04;G10L17/18;G10L25/24 |
代理公司: | 北京金智普华知识产权代理有限公司 11401 | 代理人: | 杨采良 |
地址: | 430079 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 编码 网络 说话 人性 自动识别 方法 系统 | ||
1.一种基于深度自编码网络的说话人性别自动识别方法,其特征在于,所述基于深度自编码网络的说话人性别自动识别方法包括:
训练阶段,首先训练集语音信号进行预处理及Mel倒谱系数特征提取,后利用大量与特定说话人及信道无关的语音数据训练UBM通用背景模型;基于UBM通用背景模型和特定说话人的语音信号提取i-vector;用提取出的i-vector作为深度自编码网络的输入训练自编码器,进一步提炼特征,最后通过分类器实现不同说话人性别分类;
测试阶段,用与训练阶段相同的方式对测试语音信号进行预处理及i-vector提取,用训练好的深度自编码网络进行特征提炼和分类,后利用分类准确性、AUC、MCC三种评价标准评估模型;
所述基于深度自编码网络的说话人性别自动识别方法具体包括:
步骤一:利用与注册说话人及信道均无关的语音信号训练UBM通用背景模型;
步骤二:提取注册数据的i-vector;
步骤三:提取测试数据的i-vector;
步骤四:训练深度自编码网络;
步骤五:模式匹配与识别,并进行模型评估;
步骤四,具体包括:
A):对步骤二得到的特征进行最大最小归一化,将所有特征数据等比例缩放到0-1区间;
B):对所有注册说话人的性别标签进行one-hot编码;编码方法为:在对N个状态进行编码时采用N位独立的状态寄存器,调用时,N位中只有一位为有效编码;此数据集只有0和1两个分类或状态,经过one-hot编码后,变为2个二元互斥特征,每次调用时只激活一种特征;
C):构建深度自编码网络结构;深度自编码网络包含一个输入层,2r-1个隐含层和一个输出层;输入层包含m个神经元x=(x1,x2,...,xm)T∈Rm;第k个隐层包含nk=n2r-k个神经元(k=1,2,...,2r-1);隐含层向量为输出层为x′=(x1′,x2′,...,xm′)T∈Rm,自编码网络的各层神经元激活输出表示为:
x′=σ′(W2rh2r-1+b2r)
其中为输入层与第1个隐含层间的权值矩阵,为第k-1个隐层与第k个隐层之间的权值矩阵,为第2r-1个隐层与输出层间的权值矩阵,b1、bk、b2r为相应偏置向量。
2.如权利要求1所述的基于深度自编码网络的说话人性别自动识别方法,其特征在于,步骤一,具体包括:
1):对与注册说话人及信道均无关的语音信号进行预处理,包括预加重、分帧、加窗;
2):将步骤1)中预处理后的信号提取Mel倒谱系数特征;
3):对步骤2)中得到的Mel倒谱特征进行全局倒谱均值、方差归一化;
4):使用N个混合高斯模型对步骤3)得到的Mel倒谱特征进行统计建模,利用EM算法得到有N个高斯分量的通用背景模型UBM,包括每个高斯分量的均值超矢量,权重及高斯分量协方差矩阵。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中师范大学,未经华中师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810402685.0/1.html,转载请声明来源钻瓜专利网。