[发明专利]面向移动设备的多模型融合驱动的眼动跟踪方法和系统有效
申请号: | 201910421173.3 | 申请日: | 2019-05-20 |
公开(公告)号: | CN110147163B | 公开(公告)日: | 2022-06-21 |
发明(设计)人: | 程时伟;张章伟 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06F3/01 | 分类号: | G06F3/01;G06V10/80;G06V40/16;G06V40/18;G06V10/774;G06V10/82;G06K9/62;G06N3/04 |
代理公司: | 杭州天正专利事务所有限公司 33201 | 代理人: | 王兵;黄美娟 |
地址: | 310014 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 面向移动设备的多模型融合驱动的眼动跟踪方法,包括如下步骤:(1)基于外观模型的眼动特征分析;(2)基于特征模型的眼动数据映射;(3)多模型融合的眼动注视点计算。本发明还提供了面向移动设备的多模型融合驱动的眼动跟踪系统,包括依次连接并馈送数据的以下模块:基于外观模型的眼动特征分析模块;基于特征模型的眼动数据映射模块;多模型融合的眼动注视点计算模块。本发明扩展了目前移动设备上的眼动跟踪方法,提高了移动设备在复杂交互环境下的的眼动跟踪精度、计算速度和稳定性。 | ||
搜索关键词: | 面向 移动 设备 模型 融合 驱动 跟踪 方法 系统 | ||
【主权项】:
1.一种面向移动设备的多模型融合眼动跟踪方法,包括下列步骤:(1)基于外观模型的眼动特征分析;首先进行数据集准备,利用合成的人眼图像进行缩放、灰度化、滤波等预处理操作后转化为样本集,利用附带的数据文件,提取人眼图像特征点坐标数据并转化为置信度矩阵作为标签集;随后,设计二阶的堆叠沙漏网络模型,设置模型参数,进行模型的训练;神经网络的训练采用有监督的训练方式,监督学习需要的训练数据包含样本集和对应的标签集;经过预处理后的人眼图像输入模型后分为上、下两路采样方式,上半路在原尺度上进行卷积,卷积核大小为1×1,只改变输入图像的深度信息;下半路首先通过最大池化法进行降采样获取深层的特征,再通过最近插值法进行升采样,更深层特征的上下半路采样嵌套在上一层中;最后将两路采样后的特征结果由里到外逐层合并输出;经过一次沙漏网络计算,会生成和一个输入图像大小相同的置信度矩阵,参与到模型损失的计算中;接着,堆叠下一个沙漏网络重新进行上、下两路采样;在训练过程中,随着训练轮次的增加,动态地为图像样本集数据添加高斯噪声,以降低高阶特征对模型训练的影响,防止模型的过拟合;(2)基于特征模型的眼动数据映射;在移动设备上进行眼动跟踪时,由于环境光照复杂,以及屏幕与用户之间的距离、角度等不尽相同,会对眼动跟踪的精确性造成影响;为此,需要在眼动注视点计算之前训练映射模型,用于拟合特征向量与屏幕上注视点坐标之间的精确数量关系;映射模型的设计与训练流程如下:在数据集准备阶段,用户需要标定采集数据;具体的,用户按照指示依次看向屏幕中坐标已知的圆点,同时后台程序通过摄像头拍摄用户眼睛图像,应用外观模型分析人眼图像特征,将所提取的特征点进一步组合成眼角中心‑瞳孔中心CCPC特征向量,并记录特征向量与对应的屏幕标定点的坐标;待标定过程结束,即完成了眼动数据映射模型数据集的准备;随后,建立二阶的非线性方程,该方程中含有6个未知参数,需要利用标定阶段采集数据集进行模型的训练和参数求解;进一步利用自适应初始值的梯度下降算法进行模型训练,当模型的损失函数小于阈值或者迭代次数到达阈值时,模型训练结束;(3)多模型融合的眼动注视点计算;多模型融合的眼动注视点计算,首先通过外观模型提取稳定的、可解释的人眼图像特征,再基于人眼图像特征建立注视点和屏幕之间的映射模型进行注视点计算;首先由移动设备自带的前置摄像头拍摄用户图像,进行基于haar特征的人脸检测与人眼图像提取;将人眼图像作为外观模型的输入,应用外观模型计算图像特征;然后选取图像特征点构建CCPC向量,作为映射模型的输入,应用映射模型计算实时注视点。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910421173.3/,转载请声明来源钻瓜专利网。