[发明专利]基于深度自编码网络的说话人性别自动识别方法及系统有效

专利信息
申请号: 201810402685.0 申请日: 2018-04-28
公开(公告)号: CN109545227B 公开(公告)日: 2023-05-09
发明(设计)人: 王志锋;段苏容;左明章;田元;闵秋莎;夏丹;叶俊民;陈迪;罗恒;姚璜 申请(专利权)人: 华中师范大学
主分类号: G10L17/02 分类号: G10L17/02;G10L17/04;G10L17/18;G10L25/24
代理公司: 北京金智普华知识产权代理有限公司 11401 代理人: 杨采良
地址: 430079 湖*** 国省代码: 湖北;42
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 深度 编码 网络 说话 人性 自动识别 方法 系统
【权利要求书】:

1.一种基于深度自编码网络的说话人性别自动识别方法,其特征在于,所述基于深度自编码网络的说话人性别自动识别方法包括:

训练阶段,首先训练集语音信号进行预处理及Mel倒谱系数特征提取,后利用大量与特定说话人及信道无关的语音数据训练UBM通用背景模型;基于UBM通用背景模型和特定说话人的语音信号提取i-vector;用提取出的i-vector作为深度自编码网络的输入训练自编码器,进一步提炼特征,最后通过分类器实现不同说话人性别分类;

测试阶段,用与训练阶段相同的方式对测试语音信号进行预处理及i-vector提取,用训练好的深度自编码网络进行特征提炼和分类,后利用分类准确性、AUC、MCC三种评价标准评估模型;

所述基于深度自编码网络的说话人性别自动识别方法具体包括:

步骤一:利用与注册说话人及信道均无关的语音信号训练UBM通用背景模型;

步骤二:提取注册数据的i-vector;

步骤三:提取测试数据的i-vector;

步骤四:训练深度自编码网络;

步骤五:模式匹配与识别,并进行模型评估;

步骤四,具体包括:

A):对步骤二得到的特征进行最大最小归一化,将所有特征数据等比例缩放到0-1区间;

B):对所有注册说话人的性别标签进行one-hot编码;编码方法为:在对N个状态进行编码时采用N位独立的状态寄存器,调用时,N位中只有一位为有效编码;此数据集只有0和1两个分类或状态,经过one-hot编码后,变为2个二元互斥特征,每次调用时只激活一种特征;

C):构建深度自编码网络结构;深度自编码网络包含一个输入层,2r-1个隐含层和一个输出层;输入层包含m个神经元x=(x1,x2,...,xm)T∈Rm;第k个隐层包含nk=n2r-k个神经元(k=1,2,...,2r-1);隐含层向量为输出层为x′=(x1′,x2′,...,xm′)T∈Rm,自编码网络的各层神经元激活输出表示为:

x′=σ′(W2rh2r-1+b2r)

其中为输入层与第1个隐含层间的权值矩阵,为第k-1个隐层与第k个隐层之间的权值矩阵,为第2r-1个隐层与输出层间的权值矩阵,b1、bk、b2r为相应偏置向量。

2.如权利要求1所述的基于深度自编码网络的说话人性别自动识别方法,其特征在于,步骤一,具体包括:

1):对与注册说话人及信道均无关的语音信号进行预处理,包括预加重、分帧、加窗;

2):将步骤1)中预处理后的信号提取Mel倒谱系数特征;

3):对步骤2)中得到的Mel倒谱特征进行全局倒谱均值、方差归一化;

4):使用N个混合高斯模型对步骤3)得到的Mel倒谱特征进行统计建模,利用EM算法得到有N个高斯分量的通用背景模型UBM,包括每个高斯分量的均值超矢量,权重及高斯分量协方差矩阵。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华中师范大学,未经华中师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201810402685.0/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top