[发明专利]基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法有效
申请号: | 201910181136.X | 申请日: | 2019-03-11 |
公开(公告)号: | CN109934158B | 公开(公告)日: | 2020-03-17 |
发明(设计)人: | 葛鹏;胡敏;王浩文;王晓华;任福继 | 申请(专利权)人: | 合肥工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 安徽省合肥新安专利代理有限责任公司 34101 | 代理人: | 陆丽莉;何梅生 |
地址: | 230009 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 局部 强化 运动 历史 递归 卷积 神经网络 视频 情感 识别 方法 | ||
1.一种基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法,其特征是按如下步骤进行:
步骤1、获取静态表情图片数据集和表情视频数据集,并对所述表情视频数据集进行预处理,得到预处理后的表情训练图片数据集,记为V={v1,v2,…,vt,…,vT},vt表示第t帧表情训练图片,且第t帧表情训练图片vt的大小为Y×Y,1≤t≤T,T表示表情图片训练数据集V内的图片总帧数;
步骤2、计算局部强化运动历史图:
步骤2.1、计算第t帧表情训练图片vt和第t+1帧表情训练图片vt+1的绝对灰度差分图像Dt;
步骤2.2、利用dlib工具从第t帧表情训练图片vt中检测人脸特征点,并生成第t帧特征点集合表示第t帧特征点集合中第n个特征点,1≤n≤N,N表示第t帧特征点集合St内的特征点总数;
获取所述第t帧特征点集合中第n个特征点周围的像素区域并作为特征点窗口,记为从而得到特征点窗口集合
步骤2.3、记第t帧表情训练图片vt中任意一个像素点为vt(x,y),0≤x≤Y且0≤y≤Y;计算像素点vt(x,y)与特征点窗口集合Bt中的每个特征点窗口的曼哈顿距离,并将最小曼哈顿距离记为dt(x,y);
步骤2.4、利用式(1)得到像素点vt(x,y)的特征点模板mt(x,y),从而得到第t帧表情训练图片vt的特征点模板Mt:
式(1)中,α表示阈值,β表示权值;
步骤2.5、将特征点模板Mt与绝对灰度差分图像Dt做哈达玛积计算,得到强化后的差分图像Et;
步骤2.6、采用迭代法获取强化后的差分图像Et的灰度阈值U:
步骤2.6.1、求出差分图像Et的最大灰度值和最小灰度值
步骤2.6.2、求出最大灰度值和最小灰度值的均值,将均值设置为阈值U;
步骤2.6.3、根据阈值U将差分图像Et分为前景和背景;
步骤2.6.4、分别求出前景和背景的平均灰度值;
步骤2.6.5、求取前景和背景的平均灰度值之间的平均值
步骤2.6.6、令平均值为阈值U,并重复步骤2.6.3执行,直到阈值U不再变化为止,从而得到灰度阈值;
步骤2.7、利用灰度阈值U过滤差分图像Et中未强化部分区域的运动变化,从而得到二值图像ψt,再利用式(2)更新局部强化运动历史图Ηt,从而得到局部强化运动历史图ΗT-1:
式(2)中,τ表示持续时间,δ表示衰退参数;当t=1时,
步骤3、使用静态表情图片数据集对卷积神经网络模型VGG16进行预训练,得到预训练完成的卷积神经网络模型VGG16;
步骤4、将局部强化运动历史图ΗT-1输入所述预训练完成的卷积神经网络模型VGG16中用于对网络模型进行微调,得到微调后的卷积神经网络模型VGG16及LEMHI-CNN网络的最终分类结果A;
步骤5、提取空间特征:
步骤5.1、从预处理后的表情训练图片数据集V中等间隔按序抽取Q帧表情训练图片,记为V′={v′1,v′2,…,v′q,…,v′Q},v′q表示抽取的第q帧表情训练图片,1≤q≤Q;
步骤5.2、将抽取的Q帧表情训练图片依次输入所述预训练完成的卷积神经网络模型VGG16中用于逐帧提取空间特征,从而得到Q个空间特征{F1,F2,…,Fq,…,FQ},Fq表示抽取的第q帧表情训练图片v′q的空间特征;
步骤6、空间特征的堆叠分片、池化和模型的训练:
步骤6.1、按照所设定的交叉步长ε将Q个空间特征{F1,F2,…,Fq,…,FQ}进行堆叠分片处理,得到K片空间特征矩阵,记为{J1,J2,…,Jk,…,JK},Jk表示第k片空间特征矩阵,且第k片空间特征矩阵Jk包含个空间特征;
步骤6.2、对第k片空间特征矩阵Jk进行池化操作,得到池化后的空间特征矩阵J′k;从而得到池化后的K片空间特征矩阵{J′1,J′2,…,J′k,…,J′K};
步骤6.3、将池化后的K片空间特征矩阵{J′1,J′2,…,J′k,…,J′K}按时序输入到长短期记忆网络模型LSTM中,得到CNN-LSTM网络的最终输出结果h;
步骤6.4、将最终输出结果h输入Softmax多分类器中得到最终分类结果G;
步骤7、利用式(3)对所述LEMHI-CNN网络的最终分类结果A和CNN-LSTM网络的最终分类结果G进行加权融合,得到最终识别结果I:
I=wA+(1-w)G (3)
式(3)中,w为随机搜索方法所确定的决策权值,且0≤w≤1。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥工业大学,未经合肥工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910181136.X/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种背光模组、显示装置以及电子设备
- 下一篇:一种多特征融合的手势识别方法