[发明专利]基于生物启发和深度属性学习相结合的人脸美感预测方法在审
申请号: | 201711493994.5 | 申请日: | 2017-12-31 |
公开(公告)号: | CN108108715A | 公开(公告)日: | 2018-06-01 |
发明(设计)人: | 纪荣嵘;陈福海 | 申请(专利权)人: | 厦门大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06F3/01;G06N3/04;G06N3/08;A61B3/113 |
代理公司: | 厦门南强之路专利事务所(普通合伙) 35200 | 代理人: | 马应森 |
地址: | 361005 *** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 人脸 美感 空间区域 人脸图像 检测器 深度属性 预测 卷积神经网络 属性特征信息 预处理 观察图像 审美特征 特征空间 眼动仪 准确率 聚类 学习 眼动 中层 图像 验证 观察 观看 监督 | ||
1.基于生物启发和深度属性学习相结合的人脸美感预测方法,其特征在于包括以下步骤:
1)人脸图像的预处理;
2)人脸显著特征位置的提取;
3)获取人脸图像的美感等级标签;
4)人脸美感模型的建立。
2.如权利要求1所述基于生物启发和深度属性学习相结合的人脸美感预测方法,其特征在于在步骤1)中,所述人脸图像的预处理包括人脸检测、人脸关键点定位、人脸图像归一化处理。
3.如权利要求1所述基于生物启发和深度属性学习相结合的人脸美感预测方法,其特征在于在步骤1)中,所述人脸图像的预处理的具体方法,包括以下步骤:
(1)对人脸图像进行人脸检测及人脸关键点的定位,具体方法包括但不限于基于opencv的人脸检测和人脸关键点的定位、基于人脸关键点位置的手工标注;
(2)根据人脸关键点的位置进行人脸图像几何归一化处理,将人脸表情子图像变换为统一的尺寸;
(3)人脸图像的灰度归一化处理,用来增强图像亮度,减弱光线和光照强度的影响。
4.如权利要求1所述基于生物启发和深度属性学习相结合的人脸美感预测方法,其特征在于在步骤2)中,所述人脸显著特征位置的提取的具体方法为:
(1)根据步骤1)中预处理后的人脸图像,由眼动仪获取用户观察图像时的眼动信息,通过眼动追踪仪获取用户的眼动扫描和追踪数据,计算用户眼球在图像的焦点位置;
(2)根据得到的用户眼球在图像的焦点位置,分析并提取用户关注的人脸显著特征点集合;
(3)将用户扫视过的人脸特征点的集合进行筛选;所述筛选为删除所有用户扫视过的人脸特征点频度小于5的特征点;
(4)将筛选后的用户扫视的人脸特征点进行聚类,得到所有用户关注的图像焦点位置,即聚类后的簇心,其中定义为凝视点,由凝视点得到用户的凝视区域,用户的凝视区域计算如下:
S=d·tan(θ)
其中,S为用户的凝视区域,d为用户到实验主机屏幕的水平距离,θ为视觉广度,取值为6度;tan()为正切函数。
5.如权利要求1所述基于生物启发和深度属性学习相结合的人脸美感预测方法,其特征在于在步骤3)中,所述获取人脸图像的美感等级标签的具体方法为:针对步骤1)中预处理后的人脸图像,通过实验获取至少20用户对于人脸图像之间的美感相对排名,然后通过包括但不限于TrueSkill算法将美感的相对排名转换为人脸图像的美感评分,进而转化为美感等级标签。
6.如权利要求1所述基于生物启发和深度属性学习相结合的人脸美感预测方法,其特征在于在步骤4)中,所述人脸美感模型的建立的具体方法为:
(1)根据步骤2)得到的凝视区域,将步骤1)进行预处理之后的人脸图像凝视区域之外的区域进行高斯模糊处理;
(2)将人脸图像划分为训练集合和测试集合;
(3)根据步骤2)得到的用户观察人脸时的凝视区域及步骤3)得到的人脸图像的美感标签通过包括但不限于监督学习和卷积神经网络的方法训练出人脸美感评价模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门大学,未经厦门大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711493994.5/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种确定特征点的方法和设备
- 下一篇:一种基于深度信念网络的回环检测方法