[发明专利]一种基于多层注意力机制的语音分离方法、模块有效
申请号: | 201910913626.4 | 申请日: | 2019-09-25 |
公开(公告)号: | CN110675891B | 公开(公告)日: | 2020-09-18 |
发明(设计)人: | 蓝天;李萌;彭川;刘峤;钱宇欣;叶文政;李森;惠国强;吕忆蓝 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G10L21/0224 | 分类号: | G10L21/0224;G10L21/0232;G10L21/0272;G10L21/0308;G10L17/02;G10L17/04;G10L25/27;G10L25/45 |
代理公司: | 成都东恒知盛知识产权代理事务所(特殊普通合伙) 51304 | 代理人: | 何健雄;廖祥文 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 多层 注意力 机制 语音 分离 方法 模块 | ||
1.一种基于多层注意力机制的语音分离方法,其特征在于,包括以下步骤:
S1:获取混合语音中特定讲话人的干净语音,并提取所述特定讲话人的声纹信息,所述混合语音包括多个讲话者;
S2:通过多层注意结构和特定讲话人的声纹信息,连续净化所述混合语音,以获取分离语音;
其中,步骤S1具体包括:
1)定义s为特定讲话人的干净语音,并通过短时傅里叶变换(STFT)将其转换为时频域St,将St作为双向-长期短期记忆(Bi-LSTM)层的输入,每一帧输入可以对应获得一个时间步的隐状态输出ht;
ht=Bi-LSTM(St) (1);
2)将每个时间步的输出ht求和后取平均值,得到特定讲话人声纹向量表达pi,T为最大时间步:
其中,步骤S2具体包括:
1)定义x为原始多讲话者混合语音,然后通过STFT将其转换为时频域Xt,使用Xt作为Bi-LSTM层的输入,得到隐状态输出hi为:
hi=Bi-LSTM(Xt) (3);
2)将特定讲话人的声纹信息pi与hi进行拼接,然后送入多层感知机(MLP)计算得到注意力权重ej,并将其标准化,得到标准化后的注意力得分αt:
ej=MLP(ht,pi) (4);
3)将注意力得分αt与上一层Bi-LSTM的输出ht直接相乘,获得过滤后的特征ft,过滤后的特征ft被视为对前一层输出过滤后的结果,然后作为下一个Bi-LSTM层的输入:
ft=αt*ht (6);
4)在输出层,使用MLP对最后一层ft进行的特征映射,得到预测的分离语音量幅度谱MLP层计算与损失函数定义如下:
其中yt表示对应的干净语音幅度谱。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910913626.4/1.html,转载请声明来源钻瓜专利网。