[发明专利]基于特征集融合的语音情感识别及评价方法有效
申请号: | 202010563652.1 | 申请日: | 2020-06-19 |
公开(公告)号: | CN111816212B | 公开(公告)日: | 2022-10-11 |
发明(设计)人: | 周后盘;夏鹏飞;周伟东 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G10L25/63 | 分类号: | G10L25/63;G10L15/06 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 杨舟涛 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 征集 融合 语音 情感 识别 评价 方法 | ||
1.基于特征集融合的语音情感识别及评价方法,其特征在于,具体包括以下步骤:
步骤一:从语音数据库中读取.wav语音文件,对语音文件预处理后提取N种语音特征集;
步骤二:建立Stacking学习模型;
通过初级学习器融合N种语音特征集,并建立Stacking学习模型的次级学习器,通过次级学习器对融合后的语音特征集做最终的语音情感识别预测;
将得到的语音特征集切分为训练数据和测试数据,分别为Training Data、Test Data;采用K折交叉验证来切分训练数据得到Train1,Train2...Traink;此时初级学习器要做K次训练和预测;
使用训练数据中的Train2,Train3...Traink做为训练集Set1,Train1做为验证集,基于训练集Set1训练初级学习器,预测得到验证集Train1的预测结果Val1,同时预测得到测试集Test的预测结果Test1;
使用训练数据中的Train1,Train3...Traink做为训练集Set2,Train2做为验证集,基于训练集Set2训练初级学习器,预测得到验证集Train2的预测结果Val2,同时预测得到测试集Test的预测结果Test2;
同理分别预测得到验证集Train3,Train4...Traink的预测结果Val3,Val4...Valk,同时分别预测得到测试集Test的预测结果Test3,Test4...Testk;
将得到的Val1,Val2...Valk进行矩阵拼接,得到1列的Val数据;将此Val数据作为次级学习器的训练数据;
对Test1,Test2...Testk求取平均值得到Testavg,将Testavg作为次级学习器的测试数据;
N种语音情感特征的训练数据经过Stacking的初级学习器预测后得到N列数据,并将此数据作为次级学习器的训练数据;
N种语音情感特征集的测试数据经过Stacking的初级学习器预测后得到N列数据,并将此数据作为次级学习器的测试数据;
将次级学习器的训练数据作为次级学习器的训练数据,经训练后通过次级学习器的测试数据来验证次级学习器的预测结果;
步骤三:建立评价标准,通过Stacking学习模型得到的预测结果与真实结果进行计算,得到评价该模型的评价标准;
平均绝对误差
其中m,yi,分别为测试集样本个数、测试集真实值及测试集预测值;该指标计算用于评估预测结果和真实数据集的接近程度的程度,其值越小说明拟合效果越好;
均方差
其中m,yi,分别为测试集样本个数、测试集真实值及测试集预测值;该指标计算的是拟合数据和原始数据对应样本点的误差的平方和的均值,其值越小说明拟合效果越好;
判定系数
其中m,yi,分别为测试集样本个数、测试集真实值、测试集预测值及测试集真实值的平均值;其含义是也是解释回归模型的方差得分,其值取值范围是[0,1],越接近于1说明自变量越能解释因变量的方差变化,值越小则说明效果越差;
皮尔逊相关系数
其含义是计算测试集真实值与测试集预测值的相关度,相关系数在[-1,1]之间,Pcc值越大,表示相关系数越显著。
2.根据权利要求1所述的基于特征集融合的语音情感识别方法,其特征在于:步骤一中提取的语音特征集,具体为:Opensmile工具包提取IS09_emotion、IS10_paraling、IS11_speaker_state、IS12_speaker_trait四种语音特征集。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010563652.1/1.html,转载请声明来源钻瓜专利网。