[发明专利]基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法有效
申请号: | 201910181136.X | 申请日: | 2019-03-11 |
公开(公告)号: | CN109934158B | 公开(公告)日: | 2020-03-17 |
发明(设计)人: | 葛鹏;胡敏;王浩文;王晓华;任福继 | 申请(专利权)人: | 合肥工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 安徽省合肥新安专利代理有限责任公司 34101 | 代理人: | 陆丽莉;何梅生 |
地址: | 230009 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 局部 强化 运动 历史 递归 卷积 神经网络 视频 情感 识别 方法 | ||
本发明公开了一种基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法,其步骤包括:1获取静态表情图片数据集和表情视频数据集,并对表情视频数据集进行预处理;2计算局部强化运动历史图LEMHI;3使用静态图片数据集预训练卷积神经网络VGG16模型;4使用LEMHI微调预训练完成的VGG16模型,得到LEMHI‑CNN模型;5将视频帧输入预训练完成的VGG16模型中提取空间特征;6将空间特征进行堆叠分片、池化后对LSTM神经网络模型进行训练,得到CNN‑LSTM模型;7将LEMHI‑CNN模型和CNN‑LSTM模型的识别结果进行加权融合即得到最终识别结果。本发明能显著提高视频情感识别率。
技术领域
本发明涉及到卷积神经网络,循环神经网络和分类判别,属于模式识别领域,具体地说是一种基于双流神经网络的视频情感识别方法。
背景技术
传统的人机交互,主要通过键盘、鼠标、屏幕等方式,只追求方便和准确,无法理解和适应人们的情绪和心境。如果没有这种理解和表达情感的能力,计算机很难具有类似人一样的智能。情感识别是赋予计算机类似于人一样的观察、理解和产生各种情感特征的能力,最终使计算机能够像人一样能自然、亲切、生动地进行交流、相互。
国内外研究视频情感识别一般分为三个步骤:
(1)人脸表情图片序列截取。该步骤可以抛弃图像中无用的背景信息,使得相关研究集中到所需关注的核心区域中来。
(2)情感特征提取。使用3D卷积核提取时空特征,要想提取出时序距离更远的帧与帧之间的联系,则需要将2D卷积神经网络与循环神经网络相结合。
(3)视频情感的最终分类识别。目前常用的分类方法为在神经网络的输出层中加入Softmax层来生成最终的分类结果。
然而研究表明,针对面部表情识别、人脸检测等人脸相关问题,将原始图像作为输入,并不能很好地利用视频中的运动信息,使得网络的分类能力不高。并且由于表情视频数据集中数据量较少,很容易使得网络过拟合。
发明内容
本发明为克服现有技术的不足之处,提出一种基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法,以期能准确地识别出人的面部表情,判断出人的情感,从而能显著提高视频情感识别率,使得计算机能够像人一样能自然、亲切、生动地进行交流、相互。
本发明为解决技术问题采用如下技术方案:
本发明一种基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法的特点是按如下步骤进行:
步骤1、获取静态表情图片数据集和表情视频数据集,并对所述表情视频数据集进行预处理,得到预处理后的表情训练图片数据集,记为V={v1,v2,…,vt,…,vT},vt表示第t帧表情训练图片,且第t帧表情训练图片vt的大小为Y×Y,1≤t≤T,T表示表情图片训练数据集V内的图片总帧数;
步骤2、计算局部强化运动历史图:
步骤2.1、计算第t帧表情训练图片vt和第t+1帧表情训练图片vt+1的绝对灰度差分图像Dt;
步骤2.2、利用dlib工具从第t帧表情训练图片vt中检测人脸特征点,并生成第t帧特征点集合表示第t帧特征点集合中第n个特征点,1≤n≤N,N表示第t帧特征点集合St内的特征点总数;
获取所述第t帧特征点集合中第n个特征点周围的像素区域并作为特征点窗口,记为从而得到特征点窗口集合
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥工业大学,未经合肥工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910181136.X/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种背光模组、显示装置以及电子设备
- 下一篇:一种多特征融合的手势识别方法