[发明专利]瞳孔定位方法及装置、存储介质、电子设备在审
申请号: | 201810456220.3 | 申请日: | 2018-05-14 |
公开(公告)号: | CN108648201A | 公开(公告)日: | 2018-10-12 |
发明(设计)人: | 薛鸿臻;孙建康;楚明磊;陈丽莉 | 申请(专利权)人: | 京东方科技集团股份有限公司;北京京东方光电科技有限公司 |
主分类号: | G06T7/12 | 分类号: | G06T7/12;G06T7/181;G06T7/187;G06T7/73;G06T7/66 |
代理公司: | 北京律智知识产权代理有限公司 11438 | 代理人: | 袁礼君;王卫忠 |
地址: | 100015 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 瞳孔 拟合 中心点 定位方法及装置 存储介质 电子设备 多个目标 方向移动 预设距离 椭圆 预设 运算 图像处理技术 存储空间 方向相反 瞳孔边界 椭圆拟合 运算误差 运算量 准确率 位宽 移动 图片 | ||
本公开涉及图像处理技术领域,尤其涉及一种瞳孔定位方法及装置、存储介质、电子设备。该方法可以包括:从待处理图片中的目标瞳孔边界上获取多个拟合点,并将多个拟合点按照预设方向移动预设距离后得到多个目标拟合点,结合克拉默法则对多个目标拟合点进行椭圆拟合得到一椭圆和该椭圆的中心点,将中心点按照与预设方向相反的方向移动预设距离,并将移动后的中心点确定为瞳孔。本公开可以减少FPGA的运算位宽且能够在FPGA上运行,同时,大大减少了运算误差、运算量和存储空间,提高了运算的效率和准确率,使得瞳孔的定位更加精确。
技术领域
本公开涉及图像处理技术领域,尤其涉及一种瞳孔定位方法及装置、存储介质、电子设备。
背景技术
对眼睛及其运动的研究是了解人类视觉机制、理解人的情感和行为以及基于眼动的人机交互等问题的关键。瞳孔检测与跟踪是人脸识别、表情识别、眼动分析、虹膜识别等技术的必要步骤,涉及图像处理、计算机视觉、模式识别等多个学科。
目前,瞳孔定位算法非常普遍,且定位非常准确。然而现有的瞳孔定位算法的计算量大,且对于存储空间的需求较高,因此,现有的瞳孔定位算法都运行在PC端,而无法运行在FPGA上。若要运行在FPGA上,需要计算量较小且对存储空间要求不高的瞳孔定位算法。
因此,本公开需要提供一种可运行在FPGA上的瞳孔定位算法。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种瞳孔定位方法及装置、存储介质、电子设备,进而至少在一定程度上克服无法在FPGA上运行瞳孔定位算法等问题。
根据本公开的一个方面,提供一种瞳孔定位方法,包括:
获取待处理图像,并对所述待处理图像进行预处理得到二值图像;
对所述二值图像中的瞳孔候选区域进行边界提取得到与各所述瞳孔候选区域对应的瞳孔候选边界;
计算各所述瞳孔候选边界的长度,并将长度最长的所述瞳孔候选边界确定为目标瞳孔边界;
在所述目标瞳孔边界上获取多个拟合点,并将多个所述拟合点按照一预设方向移动一预设距离得到多个目标拟合点;
结合克拉默法则对多个所述目标拟合点进行椭圆拟合得到一椭圆,并获取所述椭圆的中心点;
将所述中心点按照与所述预设方向相反的方向移动所述预设距离,并将移动后的中心点确定为瞳孔。
在本公开的一种示例性实施例中,所述对所述待处理图像进行预处理得到二值图像包括:
获取所述待处理图像的灰度图像;
对所述灰度图像进行高斯滤波,以得到去噪后的所述灰度图像;
通过一灰度阈值将去噪后的所述灰度图像转化为二值图像。
在本公开的一种示例性实施例中,所述对所述二值图像中的瞳孔候选区域进行边界提取得到与各所述瞳孔候选区域对应的瞳孔候选边界包括:
通过一边界检测算法分别提取各所述瞳孔候选区域的边界点;
通过对各所述瞳孔候选区域的边界点进行连通域分析,得到与各所述瞳孔候选区域对应的瞳孔候选边界。
在本公开的一种示例性实施例中,所述在所述目标瞳孔边界上获取多个拟合点包括:
将所述目标瞳孔边界等分为多个边界段,分别在各所述边界段上选取一个所述拟合点,以得到多个所述拟合点,其中,所述边界段的数量至少为六个。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于京东方科技集团股份有限公司;北京京东方光电科技有限公司,未经京东方科技集团股份有限公司;北京京东方光电科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810456220.3/2.html,转载请声明来源钻瓜专利网。