[发明专利]一种鲁棒的基于深度学习的连续情绪跟踪方法有效
申请号: | 201710043727.1 | 申请日: | 2017-01-19 |
公开(公告)号: | CN106919903B | 公开(公告)日: | 2019-12-17 |
发明(设计)人: | 郭清沛;陈辉;姚乃明;王宏安 | 申请(专利权)人: | 中国科学院软件研究所 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04 |
代理公司: | 11200 北京君尚知识产权代理有限公司 | 代理人: | 邱晓锋 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 连续 情绪 跟踪 方法 | ||
1.一种鲁棒的基于深度学习的连续情绪跟踪方法,其特征在于,包括以下步骤:
1)构建训练样本并训练归一化模型和连续情绪跟踪模型;所述归一化模型和所述连续情绪跟踪模型采用深度神经网络实现;所述归一化模型用于处理二维图像中包括光照归一和姿态矫正在内的问题,用以提升识别过程中的鲁棒性;所述归一化模型采用基于Encoder和Decoder框架的深度学习模型,包括基于CNN或者RBM构建的Encoder-Decoder模型;Decoder的网络结构与Encoder相对称;模型训练时采用包含矫正图像任务和重建输入任务的多任务学习的损失函数;
2)获取表情图像,通过归一化模型将其转换为标准图像;
3)通过连续情绪跟踪模型并利用时序信息产生当前帧的标准图像的情绪跟踪结果;
4)重复步骤2)-3),直至完成全部情绪跟踪任务。
2.如权利要求1所述的方法,其特征在于,所述连续情绪跟踪模型采用利用时序信息的深度学习模型,结合当前输入帧和历史输入信息共同产生情绪跟踪的结果。
3.如权利要求2所述的方法,其特征在于,所述利用时序信息的深度学习模型包括3D-CNN、RNN、GRU、LSTM;若采用3D-CNN,则需要缓存历史输入帧,情绪跟踪时将当前帧和历史输入帧共同作为3D-CNN的输入;若采用包括RNN在内的时序记忆模型,则隐式地保存历史输入状态,输出当前帧的跟踪结果时,同时更新历史输入状态。
4.如权利要求1所述的方法,其特征在于,步骤2)中通过摄像头实时采集图像,并对采集的图像进行预处理,预处理过程包括人脸检测,裁剪检测到人脸区域,对比度归一并缩放到固定的大小。
5.如权利要求4所述的方法,其特征在于,预处理过程中进行人脸检测,如果人脸检测失败,则直接丢弃当前帧,不再对当前帧进行表情跟踪。
6.如权利要求1所述的方法,其特征在于,步骤2)中采用单个归一化模型同时完成对输入帧的光照和姿态的归一化。
7.如权利要求1所述的方法,其特征在于,步骤3)中采用连续情绪跟踪模型输出当前表情在连续情感空间中各维度的值,用于后续表情分类、预测。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院软件研究所,未经中国科学院软件研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710043727.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种老年护理专用药箱
- 下一篇:一种面板可拆卸的定时隐形眼镜收纳盒