[发明专利]一种注视数据还原方法及系统在审
申请号: | 201910433988.3 | 申请日: | 2019-05-23 |
公开(公告)号: | CN110147770A | 公开(公告)日: | 2019-08-20 |
发明(设计)人: | 秦林婵;王云飞;黄通兵 | 申请(专利权)人: | 北京七鑫易维信息技术有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 王宝筠 |
地址: | 100102 北京市朝阳区望京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 数据还原 注视 眼部图像 数据还原系统 还原过程 匹配用户 视频数据 视野 分析 | ||
本发明公开了一种注视数据还原方法,该方法包括:获取3D虚拟场景和用户的眼部图像;对所述眼部图像进行分析,获取用户的注视数据;将所述注视数据还原至所述3D虚拟场景。基于本发明的技术方案可以将用户的注视数据还原至3D虚拟场景,解决了现有技术中将注视数据还原至视频数据的缺点,将注视数据还原至所述3D虚拟场景中,由于还原过程中注视数据能够更加匹配用户的视野,使得注视数据还原的处理过程较为简单且提升了处理速度。对应的,本发明还公开了一种注视数据还原系统。
技术领域
本发明涉及眼动跟踪技术领域,特别是涉及一种注视数据还原方法及系统。
背景技术
为了研究用户在某些场景中的观察数据,通常需要将用户的注视数据进行还原,以便对用户在该场景中的注视数据进行分析。
在现有的将注视数据进行还原时,通常是将注视数据还原至与该场景对应的视频数据中,由于用户的眼动数据是注视的坐标或矢量信息,而每个人的视野角度不同,对于用户的注视数据进行还原时,由于视频数据无法反映每个用户的注视角度,会使得注视数据的还原的过程较为困难,并且处理速度较慢,从而使得利用还原后的注视数据进行后续的分析和统计很不方便。
发明内容
针对于上述问题,本发明提供一种注视数据还原方法及系统,实现将用户的注视数据还原至3D虚拟场景中,使得注视数据还原的处理过程较为简单且提升了处理速度。
为了实现上述目的,本发明提供了如下技术方案:
一种注视数据还原方法,该方法包括:
获取3D虚拟场景和用户的眼部图像;
对所述眼部图像进行分析,获取用户的注视数据;
将所述注视数据还原至所述3D虚拟场景。
可选地,该方法还包括:
获取实景记录视频中的用户注视画面;
对所述用户注视画面进行图像拼接处理,实现3D虚拟场景搭建,获得所述3D虚拟场景。
可选地,所述3D虚拟场景包括全景图,其中,所述对所述用户注视画面进行图像拼接处理,包括:
将各个所述用户注视画面投影至目标空间面上;
在所述目标空间面上对相邻的所述用户注视画面进行比较,确定画面重叠区域;
对所述画面重叠区域进行融合处理,并对融合处理后的多个用户注视画面进行拼接处理,获得全景图。
可选地,该方法还包括:
通过目标设备拍摄获得与用户视野相匹配的360度全景图,所述3D虚拟场景包括所述360度全景图。
可选地,该方法还包括:
获取所述用户注视画面中的场景信息;
通过预设3D场景模型对所述场景信息进行3D虚拟场景搭建,获得3D虚拟场景。
可选地,该方法还包括:
采集用户的位置数据,其中,所述对所述眼部图像进行分析,获得用户的注视数据,包括:
基于所述位置数据,对所述用户的眼部图像进行分析,获得用户的注视数据。
可选地,所述位置数据包括用户的位置及角度信息、行走路径数据和行为数据中的至少一种。
可选地,该方法还包括:
将多个用户的注视数据还原至所述3D虚拟场景,实现对多个用户的注视数据的联合分析。
可选地,所述将多个用户的注视数据还原至所述3D虚拟场景,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京七鑫易维信息技术有限公司,未经北京七鑫易维信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910433988.3/2.html,转载请声明来源钻瓜专利网。