[发明专利]一种情感识别方法及装置在审
申请号: | 201710210060.X | 申请日: | 2017-03-31 |
公开(公告)号: | CN107169409A | 公开(公告)日: | 2017-09-15 |
发明(设计)人: | 范音;路香菊;李典 | 申请(专利权)人: | 北京奇艺世纪科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/08 |
代理公司: | 北京柏杉松知识产权代理事务所(普通合伙)11413 | 代理人: | 马敬,项京 |
地址: | 100080 北京市海淀*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 情感 识别 方法 装置 | ||
1.一种情感识别方法,其特征在于,包括:
通过预先建立的递归神经网络模型识别待识别视频的帧序列中人脸的外观特征和所述帧序列的时间特征,得到第一情感结果;
通过预先建立的三维卷积神经网络模型识别所述待识别视频的帧序列中人脸的外观特征和所述帧序列的时间特征,得到第二情感结果;
在得到所述第一情感结果及所述第二情感结果时,对所述第一情感结果、所述第二情感结果进行融合计算,得到所述待识别视频的融合结果;
根据所述融合结果中的最大值,通过预先建立的融合结果和情感类型的对应关系,得到所述待识别视频的情感类型。
2.根据权利要求1所述的情感识别方法,其特征在于,位于所述通过预先建立的递归神经网络模型识别待识别视频的帧序列中人脸的外观特征和所述帧序列的时间特征,之前,所述方法还包括:
对所述待识别视频进行预处理,得到所述待识别视频的帧序列。
3.根据权利要求1所述的情感识别方法,其特征在于,位于所述通过预先建立的递归神经网络模型识别待识别视频的帧序列中人脸的外观特征和所述帧序列的时间特征,之前,所述方法还包括:
通过卷积神经网络对FER2013数据库中的具有基本表情的人脸图像进行训练,建立卷积神经网络模型;
通过递归神经网络对所述卷积神经网络模型的外观特征进行训练,建立递归神经网络模型;
通过三维卷积神经网络对AFEW6.0数据库中的具有基本表情的视频片段进行训练,得到三维卷积神经网络模型。
4.根据权利要求2所述的情感识别方法,其特征在于,所述对所述待识别视频进行预处理,得到所述待识别视频的帧序列的步骤,包括:
对所述待识别视频中的每一帧图片做仿射变换,得到所述帧序列。
5.根据权利要求1所述的情感识别方法,其特征在于,所述对所述第一情感结果、所述第二情感结果进行融合计算,得到所述待识别视频的融合结果的步骤,包括:
根据公式:Wvideo=a1×WCNN-RNN+(1-a1)×WC3D,
得到融合结果Wvideo,其中,WCNN-RNN为所述第一情感结果,WC3D为所述第二情感结果,a1为第一情感结果参数,1-a1为第二情感结果参数,a1为大于0且小于1的数值。
6.根据权利要求1所述的情感识别方法,其特征在于,位于所述对所述第一情感结果、所述第二情感结果进行融合计算,之前,所述方法还包括:
提取所述待识别视频的音频特征,通过支持向量机模型识别所述音频特征,得到音频情感结果;
在得到所述第一情感结果、所述第二情感结果及所述音频情感结果时,对所述第一情感结果、所述第二情感结果及所述音频情感结果进行融合计算,得到所述待识别视频的融合结果。
7.根据权利要求6所述的情感识别方法,其特征在于,所述对所述第一情感结果、所述第二情感结果及所述音频情感结果进行融合计算,得到所述待识别视频的融合结果的步骤,包括:
根据公式:
Wvideo=w1×WCNN-RNN+w2×WC3D+(1-w1-w2)×WAudio,得到融合结果Wvideo,
其中,WCNN-RNN为所述第一情感结果,WC3D为所述第二情感结果,WAudio为所述音频情感结果,w1为第一情感结果参数,w2为第二情感结果参数,1-w1-w2为音频情感结果参数,w1、w2和w1+w2为大于0且小于1的数值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京奇艺世纪科技有限公司,未经北京奇艺世纪科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710210060.X/1.html,转载请声明来源钻瓜专利网。