[发明专利]基于眼动控制的人机交互方法有效
申请号: | 201810390132.8 | 申请日: | 2018-04-27 |
公开(公告)号: | CN108595008B | 公开(公告)日: | 2022-02-08 |
发明(设计)人: | 蒋欣欣;冯帆;陈树峰 | 申请(专利权)人: | 北京计算机技术及应用研究所 |
主分类号: | G06F3/01 | 分类号: | G06F3/01;G06V40/16;G06V40/19 |
代理公司: | 中国兵器工业集团公司专利中心 11011 | 代理人: | 张然 |
地址: | 100854*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 控制 人机交互 方法 | ||
1.一种基于眼动控制的人机交互方法,其特征在于,包括:人眼瞳孔定位和眼动特征提取;
其中,进行基于灰度信息的瞳孔中心定位,包括:
第一阶段:人眼定位阶段:
获取人脸图像,将人脸图像转换成相应的灰度图像;
提取眼部特征;
对人脸灰度图像进行处理,利用所提取的眼部特征的值的变化,确定人眼位置;
第二阶段:瞳孔边缘检测阶段:
利用图像边缘亮度变化显著的特性,对所获得的人眼灰度区域进行边缘检测,获得瞳孔区域;
第三阶段:瞳孔中心定位阶段:
基于获得的瞳孔区域,采用邻域灰度值比较和几何中心相结合的方法,对原瞳孔区域进行处理,从而获得瞳孔中心;
基于视觉点移动的眼动特征信息提取,包括:
计算注视点偏移量:
设置时间阈值为T,眼睛移动时间为t,则有:
基于眼睛静止时获得的瞳孔中心点,记录当前瞳孔中心点O1,坐标记为(x1,y1),采集前后相邻两帧图像获取第二帧图像的瞳孔中心点O2,坐标记为(x2,y2),基于前后瞳孔中心建立适当的坐标系计算眼睛移动一次产生的位移Δ(xd,yd)和转动角度θ,得到注视点的偏移量;
视点偏移量映射:
基于获取的前后两帧图像的位移差,让眼睛来回移动对屏幕上坐标标定的点进行校准,利用最小二乘曲线拟合算法对映射函数进求解;
获得眼动特征信息后,基于获得的眼动控制位移和角度信息,进行相应的系统消息响应。
2.如权利要求1所述的基于眼动控制的人机交互方法,其特征在于,采用基于Haar矩阵的方式提取眼部特征。
3.如权利要求1所述的基于眼动控制的人机交互方法,其特征在于,瞳孔边缘检测阶段具体包括:
定义高斯加权平滑函数,对图像进行卷积平滑,高斯加权平滑函数定义为:
其中σ是高斯分布的均方差;xd与yd表示图像二维图像像素的坐标值;
利用梯度算子计算图像梯度,获得卷积平滑后的图像在x和y方向上偏导数矩阵,对矩阵进行非极大值抑制,得到二值图像;
对二值图像进行阈值筛选,经过筛选后得到的图像只包含亮度比较高的瞳孔边界及其内部区域,获得瞳孔区域。
4.如权利要求1所述的基于眼动控制的人机交互方法,其特征在于,瞳孔中心定位阶段中,在灰度值比较阶段,使用N*N的窗口区域对整个瞳孔区域进行遍历,求得整个瞳孔区域中灰度值之和最大的区域。
5.如权利要求4所述的基于眼动控制的人机交互方法,其特征在于,在求解中心点阶段,基于获得的灰度值之和最大的N*N区域,应用几何方法将窗口区域对角线相交的点作为瞳孔中心点。
6.如权利要求1所述的基于眼动控制的人机交互方法,其特征在于,基于获取的前后两帧图像的位移差,让眼睛来回移动对屏幕上坐标标定的点进行校准,利用最小二乘曲线拟合算法对映射函数进求解后,将求解后的位移量映射到屏幕上。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京计算机技术及应用研究所,未经北京计算机技术及应用研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810390132.8/1.html,转载请声明来源钻瓜专利网。