[发明专利]一种惯性传感器与视觉传感器数据融算法有效
申请号: | 201711398804.1 | 申请日: | 2017-12-22 |
公开(公告)号: | CN108106614B | 公开(公告)日: | 2019-02-19 |
发明(设计)人: | 郭*;黄永鑫;路晗;张莹 | 申请(专利权)人: | 北京轻威科技有限责任公司 |
主分类号: | G01C21/16 | 分类号: | G01C21/16;G01C21/20;G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100080 北京市海淀区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视觉传感器 定位数据 定位信息 惯性传感器 采集 定位点 二维空间坐标 三维空间坐标 数据融合算法 采集图像 定位延时 输出频率 数据融合 算法 输出 申请 | ||
本申请实施例提供一种惯性传感器与视觉传感器数据融合算法,采用本发明实施例提供的一种惯性传感器与视觉传感器数据融合定位的方法,根据惯性传感器采集的定位点的第一定位数据和视觉传感器采集的所述定位点的第二定位数据确定定位信息,或者在没有采集到视觉传感器采集的第二定位数据时根据第一定位数据确定定位信息,从而在确定二维空间坐标和/或三维空间坐标中,不再需要始终根据视觉传感器采集的第二定位数据确定定位信息,在视觉传感器频率较低或者采集图像无法确定准确的定位数据时仍然能够输出定位信息,从而提高定位信息输出频率,降低定位延时。
技术领域
本发明涉及定位技术领域,特别涉及一种惯性传感器与视觉传感器数据融算法。
背景技术
随着科技的迅速发展,人类与计算机类设备交互维度的需求不断增加。在很长时间内,人类与计算机的交互主要是在二维空间内,如平面显示器和鼠标、触控板。使用二维空间描述三维物体会造成使用不便和一定局限,特别是在三维设计和三维娱乐发展的今天,用户无法通过自然的动作交互看到设计中的三维空间。
虚拟现实(virtual reality,VR)的出现,将人类与计算机的交互提升到了三维。人可以在现实的三维空间中使用自己的肢体动作、身体的移动、空间外部输入设备等与计算机进行交互。这就需要对人体关键部位或者空间外部输入设备做三维空间坐标定位。
现有的三维空间坐标定位方案,通过架设的多组摄像机,先对所有摄像机进行标定获取摄像机的内外参数,随后控制所有摄像机同步曝光,求取图像中特定点的二维坐标,并对追踪到该标记点的2个以上图像中的二维点进行匹配,最后根据相应摄像机的内外参数求取出该目标标记点在三维空间中的精准位置。
然而,由于现有的摄像机等图像传感器的图像采集帧率有限,限制了根据采集的图像输出三维空间坐标的频率和增加了三维空间坐标的定位延迟,例如采用60FPS(FramesPer Second,每秒传输帧数)的工业级全局曝光摄像机确定三维空间坐标定位,其数据输出频率(即输出延迟)为16毫秒,即正常情况下每16毫秒输出一次三维空间坐标,再加上传输延迟和显示器输出延迟约11毫秒实际的VR显示延迟将高于20毫秒,而在虚拟现实交互时VR显示延迟高于20ms时会给用户带来明显的眩晕感。
综上,现有的三维空间坐标定位方案输出三维空间坐标的频率不高且延迟过高,不能适应VR等对三维空间定位延时和频率要求较高的应用场景的问题。
发明内容
本发明提供一种惯性传感器与视觉传感器数据融算法,以解决现有的三维空间坐标定位方案输出三维空间坐标的频率不高且延迟过高,不能适应VR等对三维空间定位延时和频率要求较高的应用场景的问题。
本发明实施例提供的一种惯性传感器与视觉传感器数据融合定位的方法,包括:
确定惯性传感器采集的定位点的第一定位数据;
判断能否确定视觉传感器采集的所述定位点的第二定位数据;
若是,根据所述第一定位数据和所述第二定位数据确定定位信息;
否则,根据所述第一定位数据确定定位信息。
可选地,根据所述第一定位数据和所述第二定位数据确定定位信息之前,还包括:
根据所述第二定位数据校正所述第一定位数据。
可选地,根据所述第二定位数据校正所述第一定位数据之前,还包括:
确定所述第二定位数据为有效数据;
其中,所述有效数据为满足以下条件中的部分或全部的第二定位数据:
拍摄所述定位点的定位图像时所述定位点位于拍摄所述定位图像的图像传感器的非拍摄死角位置,所述定位图像用于确定所述第二定位数据;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京轻威科技有限责任公司,未经北京轻威科技有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711398804.1/2.html,转载请声明来源钻瓜专利网。