[发明专利]目标图像定位方法及装置、视线追踪设备在审
申请号: | 201910213189.5 | 申请日: | 2019-03-20 |
公开(公告)号: | CN109934192A | 公开(公告)日: | 2019-06-25 |
发明(设计)人: | 孙建康;张浩;陈丽莉;薛鸿臻;马福强 | 申请(专利权)人: | 京东方科技集团股份有限公司;北京京东方光电科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06F3/01 |
代理公司: | 北京中博世达专利商标代理有限公司 11274 | 代理人: | 张静尧 |
地址: | 100015 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标图像 图像块 定位方法及装置 目标图像块 神经网络 视线追踪 图像检测技术 待处理图像 概率 判定 | ||
本发明提供一种目标图像定位方法及装置、视线追踪设备,涉及图像检测技术领域,用于解决目标图像定位速度较慢的问题。目标图像定位方法,包括:从含有目标图像的待处理图像中提取出多个图像块;将每个所述图像块输入至第一神经网络,以获取所述图像块中包含所述目标图像的概率值;判定所述概率值最大的所述图像块作为目标图像块;将所述目标图像块输入至第二神经网络,以获取所述目标图像的中心的位置。
技术领域
本发明涉及图像检测技术领域,尤其涉及一种目标图像定位方法及装置、视线追踪设备。
背景技术
对目标图像定位和追踪是当下技术人员研究的一个热点问题,以视线追踪为例,视线追踪技术是虚拟现实领域中一项重要技术,目的在于获取用户当前的注视方向,通过视线追踪技术可以采集儿童关注点信息、协助瘫痪患者进行人机交互、视线疲劳驾驶检测等。
瞳孔定位是视线追踪过程的第一步和前提,瞳孔定位的准确性和稳定性对眼球追踪系统的整体性能至关重要。在实际的瞳孔定位过程中,会受到各种干扰因素的影响,如红外照明灯在角膜上的反光点、睫毛和眼睑的遮挡、光照强度的变化、带眼镜时的反光等都会影响瞳孔定位的速度。目前常用的瞳孔定位方法大多基于纯图像处理技术(如椭圆拟合),而这些方法在面对实际使用的复杂环境时算法较为复杂,导致速度较慢。
发明内容
本发明的实施例提供一种目标图像定位方法及装置、视线追踪设备,用于解决目标图像定位速度较慢的问题。
为达到上述目的,本发明的实施例采用如下技术方案:
第一方面,提供一种目标图像定位方法,包括:从含有目标图像的待处理图像中提取出多个图像块;将每个所述图像块输入至第一神经网络,以获取所述图像块中包含所述目标图像的概率值;判定所述概率值最大的所述图像块作为目标图像块;将所述目标图像块输入至第二神经网络,以获取所述目标图像的中心的位置。
可选的,所述目标图像为瞳孔。
可选的,所述目标图像定位方法还包括:对含有所述目标图像的原始图像进行降分辨率处理,以获取所述待处理图像。
可选的,将所述目标图像块输入至第二神经网络之前,所述目标图像定位方法还包括:对所述目标图像块进行提升分辨率处理,以使所述目标图像块的分辨率与所述原始图像的分辨率相同。
可选的,所述从含有目标图像的待处理图像中提取出多个图像块,包括:设定第一滑动窗口为n*m像素,步幅为o像素,对所述待处理图像进行遍历,以划分出多个所述图像块;其中,m、n和o均为正整数。
可选的,在判定所述概率值最大的所述图像块作为目标图像块之前,所述目标图像定位方法还包括:对得到的多个所述概率值进行归一化处理。
可选的,所述第一神经网络包括第一深度卷积神经网络;所述第一深度卷积神经网络包括:依次连接的第一卷积层、第一平均池化层、第一全连接层;所述第一全连接层采用的激活函数包括Sigmoid函数,损失函数包括二元交叉熵损失函数。
可选的,所述第二神经网络包括第二深度卷积神经网络;所述第二深度卷积神经网络包括:依次连接的多个卷积组、第二平均池化层、第二全连接层;所述卷积组包括交替连接的第二卷积层和第二平均池化层;所述第二全连接采用的激活函数包括线性整流函数,损失函数包括均方误差函数。
第二方面,提供一种目标图像定位装置,包括:第一图像处理单元,用于从含有目标图像的待处理图像中提取出多个图像块;第一输入单元,用于将每个所述图像块输入至第一神经网络,以获取所述图像块中包含所述目标图像的概率值;第一处理单元,用于判定所述概率值最大的所述图像块作为目标图像块;第二输入单元,用于将所述目标图像块输入至第二神经网络,以获取所述目标图像的中心的位置。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于京东方科技集团股份有限公司;北京京东方光电科技有限公司,未经京东方科技集团股份有限公司;北京京东方光电科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910213189.5/2.html,转载请声明来源钻瓜专利网。