[发明专利]一种人声分离模型的训练以及人声分离方法和装置在审
申请号: | 202011106262.8 | 申请日: | 2020-10-15 |
公开(公告)号: | CN112242137A | 公开(公告)日: | 2021-01-19 |
发明(设计)人: | 陈华官;张志齐 | 申请(专利权)人: | 上海依图网络科技有限公司 |
主分类号: | G10L15/04 | 分类号: | G10L15/04;G10L15/06;G10L15/183;G10L15/26;G10L17/02;G10L17/04;G10L17/18 |
代理公司: | 北京同达信恒知识产权代理有限公司 11291 | 代理人: | 卢志娟 |
地址: | 200051 上海市徐汇*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 人声 分离 模型 训练 以及 方法 装置 | ||
本申请公开了一种人声分离模型的训练以及人声分离方法和装置,属于人工智能技术领域,该方法包括,获取各音频样本以及相应的人声分离标注信息,并将各音频样本输入至人声分离模型,获得相应的人声分离结果,以及根据各音频样本的人声分离结果和人声分离标注信息,对人声分离模型的参数进行调整,获得调整后的人声分离模型。以及采用粗分离模块确定待识别的目标音频对应的语音用户的用户标识信息,并分别将目标音频相应的每一用户标识信息以及目标音频,输入至人声分离模型,获得每一语音用户为目标音频中的每一目标音频片段对应的用户的概率,以及分别根据每一目标音频片段对应的各概率,确定相应的目标语音用户。这样,提高了人声分离的精确度。
技术领域
本申请涉及人工智能技术领域,尤其涉及一种人声分离模型的训练以及人声分离方法和装置。
背景技术
随着互联网技术的发展,在电话诈骗等应用场景中,通常需要从音频中分离出不同用户对应的音频片段。
现有技术中,通常采用基于人工先验的概率图模型,对音频进行人声分离。
但是,概率图模型不需要模型训练,人声分离结果的准确度不高。
发明内容
本申请实施例提供一种人声分离模型的训练以及人声分离方法和装置,用以在对音频进行人声分离时,提高人声分离结果的准确度。
一方面,提供一种人声分离模型的训练方法,包括:
获取各音频样本以及相应的人声分离标注信息,人声分离标注信息表示音频中的各时刻对应的语音用户;
基于卷积神经网络,分别提取每一音频样本中的各细分音频片段对应的第一声纹特征,细分音频片段是按照第一预设时长划分获得的;
基于声纹提取模块,分别提取每一音频样本中的各粗分音频片段对应的第二声纹特征,粗分音频片段是按照第二预设时长划分获得的;
基于粗分离模块,分别确定每一音频样本中识别出的语音用户对应的用户标识信息;
采用卷积神经网络和循环神经网络,分别对每一音频样本对应的第一声纹特征、第二声纹特征以及用户标识信息进行处理,获得相应的人声分离结果;
根据各音频样本的人声分离结果和人声分离标注信息,对人声分离模型的参数进行调整,获得调整后的人声分离模型,其中,人声分离模型是基于卷积神经网络、声纹提取模块、粗分离模块以及循环神经网络构建的。
较佳的,基于卷积神经网络,提取每一音频样本中的各细分音频片段对应的第一声纹特征,包括:
分别针对每一音频样本,执行以下步骤:
将音频样本进行特征提取,获得相应的音频特征信息;
按照第一预设时长,对音频样本的音频特征信息进行划分,获得多个细分音频片段的音频特征信息;
分别对每一细分音频片段对应的音频特征信息进行声纹特征提取,获得相应的第一声纹特征。
较佳的,基于声纹提取模块,分别提取每一音频样本中的各粗分音频片段对应的第二声纹特征,包括:
分别针对每一音频样本,执行以下步骤:
按照第二预设时长,将音频样本进行划分,获得各粗分音频片段,第二预设时长高于第二预设时长;
采用预先训练好的声纹特征模型,分别对每一粗分音频片段进行声纹特征提取,获得相应的第二声纹特征。
较佳的,基于粗分离模块,分别确定每一音频样本中识别出的语音用户对应的用户标识信息,包括:
分别针对每一音频样本,执行以下步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海依图网络科技有限公司,未经上海依图网络科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011106262.8/2.html,转载请声明来源钻瓜专利网。