[发明专利]一种基于角度光流法的机器人运动信息估计方法有效
申请号: | 201910011867.X | 申请日: | 2019-01-07 |
公开(公告)号: | CN109903309B | 公开(公告)日: | 2023-05-12 |
发明(设计)人: | 祝朝政 | 申请(专利权)人: | 南京华科广发通信科技有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/269;G06T7/66 |
代理公司: | 南京经纬专利商标代理有限公司 32200 | 代理人: | 葛潇敏 |
地址: | 210000 江苏省南京市*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 角度 光流法 机器人 运动 信息 估计 方法 | ||
本发明公开一种基于角度光流法的机器人运动信息估计方法,步骤是:步骤1,获取机器人移动的连续两帧图像I,J,提取特征点;步骤2,计算特征点在对应两帧图像I,J时刻的角点方向θ;步骤3,基于灰度不变性假设计算x,y,θ,t与u,v,ω的关系式;步骤4,在特征点周围选择一个w×w块,得到wsupgt;2/supgt;对特征点,然后假设窗口中的所有像素具有相同的运动,考虑一个大小为w×w的窗口,包含wsupgt;2/supgt;个像素,则窗口中的所有像素具有相同的运动,从而得到wsupgt;2/supgt;个方程式,求解后,得到机器人此刻x,y方向的速度u,v以及航向角速度ω,得到此时机器人的位置状态信息。此种方法可直接计算角度偏移量,最终获得准确的摄像机位置和角度估计,减少运动信息估计的计算强度,更适用于工程实践。
技术领域
本发明属于计算机视觉领域,特别涉及一种无人机悬停或移动机器人的运动信息估计方法。
背景技术
虽然现在已有许多方法使用多个相机或多个主动传感器来提供精确测量进行导航,但它们的感知范围相对比较局限,并且对于小型机器人来说笨重而且成本高,因此,使用单目相机是更好的选择,可以实现减轻重量以及降低功耗的目的。
早期的光流法之一是Horn-Schunck光流法,它是基于相同速率的明亮图案几乎在图像中的所有地方都平滑变化的假设,使用相位相关法,通过块匹配计算光流,接着通过一个额外的优化步骤在几个候选之间找到更平滑的运动场。为了减少噪声影响,提出了一些基于特征跟踪的方法,例如,FAST算法。Benosman表明,通过估计时空域中的平面,可以以线性方式从每个事件周围的局部窗口估计光流。这些算法都需要大量手工计算的异常值抑制方案,它们并不能正确地对传感器的输出进行建模。
因此,可以使用基于图像生成帧的事件相机采集的数据来训练网络,例如由Brandli等人开发的动态和主动感知像素视觉传感器(DAVIS),避免了对昂贵的数据标记的需要。但是,对于嵌入式系统,昂贵的DAVIS并不适用。虽然事件相机可以实现高帧率和低功率性能,但目前它太昂贵,而且这种相机已经失去了基本的照相能力,并且现有方法只能提供两个自由度的相机信息,即在x轴和y轴上的位移信息,不能提供相机的旋转角度信息。
现有的光流法主要通过寻找图像序列中的像素点在时域上的变化,相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息。在实际应用光流法进行运动物体检测中,由于其具有计算量很大,计算耗时长,并且对于变化的光线敏感的缺点,无法保证其实时性和实用性,并不能有效地应用到运动信息的估计中。
发明内容
本发明的目的,在于提供一种基于角度光流法的机器人运动信息估计方法,其可直接计算角度偏移量,最终获得准确的摄像机位置和角度估计,减少运动信息估计的计算强度,更适用于工程实践。
为了达成上述目的,本发明的解决方案是:
一种机器人运动信息估计方法,包括如下步骤:
步骤1,获取机器人移动的连续两帧图像I,J,提取特征点;
步骤2,计算特征点在对应两帧图像I,J时刻的角点方向θ;
步骤3,基于灰度不变性假设计算x,y,θ,t与u,v,ω的关系式;
步骤4,在特征点周围选择一个w×w块,得到w2对特征点,然后假设窗口中的所有像素具有相同的运动,考虑一个大小为w×w的窗口,其中包含w2个像素,则窗口中的所有像素具有相同的运动,从而得到w2个方程式,求解后,得到机器人此刻x,y方向的速度u,v以及航向角速度ω,得到此时机器人的位置状态信息。
上述步骤1中,利用机器人上的单目相机获取图像。
上述步骤1中,利用Oriented FAST方法提取特征点。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京华科广发通信科技有限公司,未经南京华科广发通信科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910011867.X/2.html,转载请声明来源钻瓜专利网。