[发明专利]基于三元损失的语音情感识别方法及系统有效
申请号: | 201810839374.0 | 申请日: | 2018-07-27 |
公开(公告)号: | CN109003625B | 公开(公告)日: | 2021-01-12 |
发明(设计)人: | 陶建华;黄健;李雅 | 申请(专利权)人: | 中国科学院自动化研究所 |
主分类号: | G10L25/63 | 分类号: | G10L25/63;G10L25/30 |
代理公司: | 北京市恒有知识产权代理事务所(普通合伙) 11576 | 代理人: | 郭文浩 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 三元 损失 语音 情感 识别 方法 系统 | ||
1.一种基于三元损失的语音情感识别方法,其特征在于包括:
对待测语音数据进行分帧处理,获取特定长度的语音序列;
基于预设的情感时序编码网络并且根据所述语音序列进行时序编码获取所述语音序列对应的情感特征向量;
基于预设的语音情感分类器并且根据多个预设的真实情感类别预测所述情感特征向量对应的情感类别;
其中,所述情感时序编码网络为基于预设的语音数据样本并且利用机器学习算法所构建的长短时记忆神经网络模型;所述语音情感分类器为基于所述语音数据样本并且利用机器学习算法所构建的支持向量机模型;
其中,在“基于预设的情感时序编码网络并且根据所述语音序列进行时序编码获取所述语音序列对应的情感特征向量”的步骤之前,所述方法还包括:根据所述语音数据样本获取多个三元语音样本组;
根据所述三元语音样本组并且按照下式所示的损失函数对所述情感时序编码网络进行网络训练:
L=L1+L2
其中,所述L1表示预设的三元组损失函数,所述L2表示预设的交叉熵损失函数;
其中,“对待测语音数据进行分帧,获取特定长度的语音序列”的步骤包括:
按预设的时间阈值对所述待测语音数据进行分帧处理,获取多个语音帧;
对所述语音帧的数量和预设的帧数阈值F进行比较并且根据比较结果和所述多个语音帧获取所述语音序列,具体为:
若所述语音帧的数量等于所述帧数阈值F,则以所述多个语音帧作为语音序列;
若所述语音帧的数量大于所述帧数阈值F,则从所述多个语音帧中随机选取中间部位的连续的F个语音帧作为语音序列;
若所述语音帧的数量小于所述帧数阈值F,则以所述多个语音帧作为一个数据整体,多次复制并拼接所述数据整体直至总的帧数大于所述帧数阈值F,并且从中随机选取连续的F个语音帧作为语音序列,或者
多次复制并拼接每一个所述语音帧直至总的帧数大于所述帧数阈值F,并且从中随机选取连续的F个语音帧作为语音序列,或者
多次复制并拼接所述待测语音数据的最后一个语音帧直至总的帧数等于所述帧数阈值F。
2.根据权利要求1所述的基于三元损失的语音情感识别方法,其特征在于,在“基于预设的情感时序编码网络并且根据所述语音序列进行时序编码获取所述语音序列对应的情感特征向量”的步骤之前,所述方法还包括:
所述三元语音样本组包括第一语音数据样本、第二语音数据样本和第三语音数据样本,并且所述第一语音数据样本与第二语音数据样本的情感类别相同以及所述第一语音数据样本与第三语音数据样本的情感类别不同;
所述L1如下式所示:
其中,所述“+”表示当所述“[]”中的值大于零时取该值为损失值,当所述“[]”中的值小于零时损失值为零;所述均是第i个三元语音样本组中的第一语音数据样本、第二语音数据样本和第三语音数据样本;所述N表示所述三元语音样本组的数量;所述f(x)表示语音数据样本x对应的情感特征向量,所述α表示预设的距离参数;
所述L2如下所示:
其中,所述yi表示预设的第i个真实情感类别标签,所述表示所述yi的线性回归处理后的值。
3.根据权利要求2所述的基于三元损失的语音情感识别方法,其特征在于,“根据所述语音数据样本获取多个三元语音样本组”的步骤包括:
根据所述语音数据样本并且按照下式所示的方法获取三元语音样本组:
其中,所述表示的2范数的平方,所述表示的2范数的平方。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院自动化研究所,未经中国科学院自动化研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810839374.0/1.html,转载请声明来源钻瓜专利网。