[发明专利]视线坐标确定方法及装置、计算机可读介质和电子设备在审
申请号: | 202210405887.7 | 申请日: | 2022-04-18 |
公开(公告)号: | CN114706484A | 公开(公告)日: | 2022-07-05 |
发明(设计)人: | 邱榆清 | 申请(专利权)人: | OPPO广东移动通信有限公司 |
主分类号: | G06F3/01 | 分类号: | G06F3/01;G06T17/00 |
代理公司: | 深圳市隆天联鼎知识产权代理有限公司 44232 | 代理人: | 刘抗美 |
地址: | 523860 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视线 坐标 确定 方法 装置 计算机 可读 介质 电子设备 | ||
1.一种视线坐标确定方法,其特征在于,包括:
获取人脸图像;
将所述人脸图像输入到视线估计模型中,确定所述人脸图像对应的视线估计坐标;
获取构建好的视线校正模型,所述视线校正模型是通过隐藏式校正过程得到的;
通过所述视线校正模型对所述视线估计坐标进行校正处理,确定所述人脸图像对应的视线真实坐标。
2.根据权利要求1所述的方法,其特征在于,所述隐藏式校正过程包括:
响应于在图像用户界面中检测到触控操作,获取所述触控操作对应的触控位置;
获取检测到所述触控操作时采集的注视人脸图像,并将所述触控位置作为所述注视人脸图像对应的样本视线真实坐标;
将所述注视人脸图像输入到所述视线估计模型中,得到样本视线估计坐标;
基于所述样本视线真实坐标以及所述样本视线估计坐标对预构建的视线校正模型进行参数拟合,得到构建好的视线校正模型。
3.根据权利要求1或2所述的方法,其特征在于,所述视线校正模型是基于最小二乘法的线性模型。
4.根据权利要求2所述的方法,其特征在于,所述将所述注视人脸图像输入到所述视线估计模型中,得到样本视线估计坐标,包括:
将所述注视人脸图像输入到所述视线估计模型中,得到初始视线估计坐标;
若所述初始视线估计坐标位于所述图像用户界面的界面范围之内,则将所述初始视线估计坐标作为样本视线估计坐标;
若所述初始视线估计坐标位于所述图像用户界面的界面范围之外,则将所述初始视线估计坐标进行删除处理。
5.根据权利要求2或4所述的方法,其特征在于,所述将所述注视人脸图像输入到所述视线估计模型中,得到样本视线估计坐标,包括:
将所述注视人脸图像输入到所述视线估计模型中,得到初始视线估计坐标;
计算所述样本视线真实坐标与所述初始视线估计坐标的坐标距离;
若检测到所述坐标距离小于预设的距离阈值,则将所述初始视线估计坐标作为样本视线估计坐标;
若检测到所述坐标距离大于或者等于所述距离阈值,则将所述初始视线估计坐标进行删除处理。
6.根据权利要求2所述的方法,其特征在于,所述图像用户界面包括目标区域,所述响应于在图像用户界面中检测到触控操作,包括:
响应于检测到针对所述目标区域的触控操作,开始采集注视人脸图像。
7.根据权利要求2所述的方法,其特征在于,所述方法还包括:
响应于检测到当前状态处于初次开机状态,启动所述隐藏式校正过程;或者
响应于检测到所述视线校正模型的最新更新时间与当前系统时间的差值大于或者等于时间间隔阈值,启动所述隐藏式校正过程。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述视线真实坐标确定所述视线输入操作的移动轨迹;
基于所述移动轨迹生成滑动操作。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于检测到所述视线真实坐标在目标位置处的停留时间大于或者等于时间阈值,在所述目标位置处生成点击操作。
10.一种视线坐标确定装置,其特征在于,包括:
人脸图像获取模块,用于获取人脸图像;
视线估计坐标确定模块,用于将所述人脸图像输入到视线估计模型中,确定所述人脸图像对应的视线估计坐标;
校正模型获取模块,用于获取构建好的视线校正模型,所述视线校正模型是通过隐藏式校正过程得到的;
视线真实坐标确定模块,用于通过所述视线校正模型对所述视线估计坐标进行校正处理,确定所述人脸图像对应的视线真实坐标。
11.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至9中任一项所述的方法。
12.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至9任一项所述的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于OPPO广东移动通信有限公司,未经OPPO广东移动通信有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210405887.7/1.html,转载请声明来源钻瓜专利网。