[发明专利]一种人声分离模型的训练以及人声分离方法和装置在审
申请号: | 202011106262.8 | 申请日: | 2020-10-15 |
公开(公告)号: | CN112242137A | 公开(公告)日: | 2021-01-19 |
发明(设计)人: | 陈华官;张志齐 | 申请(专利权)人: | 上海依图网络科技有限公司 |
主分类号: | G10L15/04 | 分类号: | G10L15/04;G10L15/06;G10L15/183;G10L15/26;G10L17/02;G10L17/04;G10L17/18 |
代理公司: | 北京同达信恒知识产权代理有限公司 11291 | 代理人: | 卢志娟 |
地址: | 200051 上海市徐汇*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 人声 分离 模型 训练 以及 方法 装置 | ||
1.一种人声分离模型的训练方法,其特征在于,包括:
获取各音频样本以及相应的人声分离标注信息,所述人声分离标注信息表示音频中的各时刻对应的语音用户;
基于卷积神经网络,分别提取每一音频样本中的各细分音频片段对应的第一声纹特征,所述细分音频片段是按照第一预设时长划分获得的;
基于声纹提取模块,分别提取每一音频样本中的各粗分音频片段对应的第二声纹特征,所述粗分音频片段是按照第二预设时长划分获得的;
基于粗分离模块,分别确定每一音频样本中识别出的语音用户对应的用户标识信息;
采用卷积神经网络和循环神经网络,分别对每一音频样本对应的第一声纹特征、第二声纹特征以及用户标识信息进行处理,获得相应的人声分离结果;
根据各音频样本的人声分离结果和人声分离标注信息,对人声分离模型的参数进行调整,获得调整后的人声分离模型,其中,所述人声分离模型是基于所述卷积神经网络、所述声纹提取模块、所述粗分离模块以及所述循环神经网络构建的。
2.如权利要求1所述的方法,其特征在于,基于卷积神经网络,提取每一音频样本中的各细分音频片段对应的第一声纹特征,包括:
分别针对每一音频样本,执行以下步骤:
将音频样本进行特征提取,获得相应的音频特征信息;
按照第一预设时长,对所述音频样本的音频特征信息进行划分,获得多个细分音频片段的音频特征信息;
分别对每一细分音频片段对应的音频特征信息进行声纹特征提取,获得相应的第一声纹特征。
3.如权利要求1所述的方法,其特征在于,基于声纹提取模块,分别提取每一音频样本中的各粗分音频片段对应的第二声纹特征,包括:
分别针对每一音频样本,执行以下步骤:
按照第二预设时长,将音频样本进行划分,获得各粗分音频片段,所述第二预设时长高于所述第二预设时长;
采用预先训练好的声纹特征模型,分别对每一粗分音频片段进行声纹特征提取,获得相应的第二声纹特征。
4.如权利要求1所述的方法,其特征在于,基于粗分离模块,分别确定每一音频样本中识别出的语音用户对应的用户标识信息,包括:
分别针对每一音频样本,执行以下步骤:
基于粗分离模块,对音频样本中的用户进行初步识别,分别获得每一粗分音频片段对应的语音用户对应的用户标识信息。
5.如权利要求1所述的方法,其特征在于,采用卷积神经网络和循环神经网络,分别对每一音频样本对应的第一声纹特征、第二声纹特征以及用户标识信息进行处理,获得相应的人声分离结果,包括:
分别针对每一音频样本,执行以下步骤:
根据音频样本中的各粗分音频片段对应的第二声纹特征和用户标识信息,分别确定每一用户标识信息对应的各第二声纹特征;
分别根据每一用户标识信息对应的各第二声纹特征的平均值,获得相应的平均声纹特征;
采用卷积神经网络和循环神经网络,对所述音频样本对应的各第一声纹特征、各第二声纹特征、各用户标识信息以及各用户标识信息对应的平均声纹特征进行上下文处理,获得上下文信息;
根据所述上下文信息,分别确定每一语音用户为所述音频样本中的每一目标音频片段对应的用户的概率,所述目标音频片段是将所述音频样本按照第三预设时长划分后获得的;
分别根据每一语音用户和每一目标音频片段对应的概率,获得相应的识别结果,所述识别结果表示所述语音用户是否为所述目标音频片段对应的用户。
6.如权利要求1-5任一项所述的方法,其特征在于,根据各音频样本的人声分离结果和人声分离标注信息,对人声分离模型的参数进行调整,获得调整后的人声分离模型,包括:
基于各音频样本的人声分离结果和相应的人声分离标注信息,确定模型损失;
根据所述模型损失,对所述人声分离模型的参数进行调整,获得调整后的人声分离模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海依图网络科技有限公司,未经上海依图网络科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011106262.8/1.html,转载请声明来源钻瓜专利网。