[发明专利]一种基于头部姿态的双区域眼动跟踪方法有效

专利信息
申请号: 202110439185.6 申请日: 2021-04-23
公开(公告)号: CN113128417B 公开(公告)日: 2023-04-07
发明(设计)人: 段峰;王永晨 申请(专利权)人: 南开大学
主分类号: G06V40/18 分类号: G06V40/18;G06V10/764;G06V40/20;G06V40/16;G06T7/246;G06T7/80
代理公司: 合肥晨创知识产权代理事务所(普通合伙) 34162 代理人: 康培培
地址: 300000*** 国省代码: 天津;12
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 头部 姿态 区域 跟踪 方法
【权利要求书】:

1.一种基于头部姿态的双区域眼动跟踪方法,其特征在于,包括以下步骤,

步骤S1,显示屏D1上显示标定点C1,C2,…,Cn,用户注视D1上标定点并进行眼动仪的标定,同时摄像头拍摄用户注视各个标定点时的面部图像,标定完成后,导出眼动仪的标定参数CP1

步骤S2,处理所述步骤S1中摄像头拍摄的图像,并识别出图像中用户的头部姿态角数据集X1

步骤S3,显示屏D2上显示标定点C1’,C2’,…,Cn’,用户注视D2上的标定点并进行眼动仪的标定,同时使用摄像头拍摄用户注视各个标定点时的面部图像,标定完成后,导出眼动仪的标定参数CP2

步骤S4,处理所述步骤S3中摄像头拍摄的图像,并识别出图像中用户的头部姿态角数据集X2

步骤S5,将步骤S2和步骤S4中头部姿态角数据集放入SVM模型中训练,样本标签为用户注视朝向的类别,用-1和1表示,对应两块屏幕,得到视线朝向预测模型;

步骤S6,摄像头拍摄用户图像,识别头部姿态角并输入训练好的SVM模型,预测出用户的视线朝向,从而使用相应的标定参数,得到用户在相应屏幕上的注视点坐标。

2.如权利要求1所述的基于头部姿态的双区域眼动跟踪方法,其特征在于,所述显示屏D1和D2面向用户的夹角范围为[90°,180°]。

3.如权利要求1所述的基于头部姿态的双区域眼动跟踪方法,其特征在于,所述眼动仪的标定参数包括视线角度误差、左右眼角度误差、标定点像素坐标、标定的像素级误差。

4.如权利要求1所述的基于头部姿态的双区域眼动跟踪方法,其特征在于,所述步骤S2和步骤S4中图像处理包括图像去噪、图像增强。

5.如权利要求1所述的基于头部姿态的双区域眼动跟踪方法,其特征在于,所述头部姿态角的识别方法如下:

步骤1,用人脸检测算法提取人脸图像,并进行关键特征点检测,特征点识别个数不少于七个;

步骤2,基于标准模型匹配的方法,将上述关键特征点与通用人脸模型进行对齐,得到图像中用户头部的旋转轴和旋转角度,构建用户头部的几何立体模型,并求解头部姿态角:θx为横滚角,θy为俯仰角,θz为偏航角;

步骤3,从上述人脸图像中提取双眼瞳孔位置坐标E1、E2,并计算出瞳孔到鼻尖点C距离的平均值d,将其添加到用户的头部姿态角数据集中,如果双眼瞳孔位置数据不完整,则应丢弃该组样本,

将上述样本特征整理成相同结构,整理后的特征结构如下:

X=[θx θy θz d]T

6.如权利要求1所述的基于头部姿态的双区域眼动跟踪方法,其特征在于,所述SVM模型为:

f(x)=wTx+b,

SVM模型的优化目标为:

s.t.y(i)(wTx(i)+b)≥1-ξi,i=1,...,m

ξi≥0,i=1,...,m

其中,f(x)是为样本分类的表达式,y为预测的样本类别,ξi为松弛变量,C为惩罚因子。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南开大学,未经南开大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202110439185.6/1.html,转载请声明来源钻瓜专利网。

同类专利
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top