[发明专利]基于数字影像地图与特征点跟踪的视觉位姿实时估计方法有效
申请号: | 202010763607.0 | 申请日: | 2020-07-31 |
公开(公告)号: | CN111915651B | 公开(公告)日: | 2023-09-12 |
发明(设计)人: | 刘贵喜;蔡一凡;吴成一;马建平;贾耀;张鹏飞;高玉舂 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/269;G06T7/73;G06V20/17;G06V10/46;G06V10/62;G06V10/75;G06V10/80 |
代理公司: | 西安吉顺和知识产权代理有限公司 61238 | 代理人: | 吴倩倩 |
地址: | 710071 陕西省*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 数字影像 地图 特征 跟踪 视觉 实时 估计 方法 | ||
1.基于数字影像地图与特征点跟踪的视觉位姿实时估计方法,其特征在于,初始帧进行特征点检测并与超大数字影像地图进行匹配,确定无人机影像与超大数字影像地图匹配点对;后续帧对成功匹配的特征点进行光流逐帧跟踪,避免了特征点检测和匹配过程,直接确定了匹配点在后续帧的位置,提高了匹配速度,能逐帧进行高精度的视觉实时位姿估计,至少包括如下步骤:
步骤101:获取先验数字影像地图;
步骤102:对数字影像地图进行SURF特征点检测,将特征按照区域块大小进行保存,建立先验特征数据库;
步骤103:获得无人机拍摄地面影像;
步骤104:对步骤103获取的无人机拍摄地面影像初始帧进行SURF特征点检测;
步骤105:将步骤104检测的特征点与步骤102建立的先验特征数据库进行初始帧匹配得到成功匹配的无人机拍摄地面影像中2D特征点pc(xc,yc)和先验特征数据库中世界坐标系下3D点pw(xw,yw,zw);
步骤106:将步骤105得到成功匹配的特征点对pc(xc,yc)和pw(xw,yw,zw)送入PnP(Perspective-n-Point)视觉位姿估计模型进行视觉位姿估计,得到无人机的初始位姿;
步骤107:建立光流跟踪器,将步骤103中获取的无人机拍摄地面影像后续帧和步骤105或者步骤110重定位处理中获得的成功匹配点对送入光流跟踪器进行光流跟踪得到跟踪成功点对p'c(xc,yc)和p'w(xw,yw,zw);
步骤108:进行成功跟踪特征点数量判据,若成功跟踪特征点数量少于阈值δn,则进行步骤110,当特征点数量足够时进行步骤109;
步骤109:将跟踪成功的特征点对送入PnP模型,得到本帧视觉估计结果,将视觉估计结果进行视觉估计误差判据,若视觉位置估计误差大于阈值δm时,进行步骤110,否则进行步骤111;通过步骤107-步骤109过程,帧定位时间由以往的5000ms降低到8ms以内;
步骤110:将本帧进行重定位处理,输出重定位处理结果;
步骤111:将步骤106、步骤109、步骤110得到的视觉位姿估计结果进行输出,得到每帧的无人机拍摄地面影像视觉位姿估计结果;
所述的步骤107-步骤108当成功跟踪特征点数少于25-30个特征点数阈值δn时,需要进行重定位处理,具体步骤包括:
步骤201:构造光流跟踪器,将无人机拍摄地面影像后续帧和初始帧/重定位帧匹配成功点对pc(xc,yc)和pw(xw,yw,zw)送入成功构建的特征点光流跟踪器,通过对特征点对的光流跟踪,免去特征检测和匹配过程,一步得到本帧成功匹配的特征点对p'c(xc,yc)和p'w(xw,yw,zw);
步骤202:对跟踪成功的匹配点对按欧氏距离的大小,从小到大进行特征点排序;
步骤203:使用随机采样一致性原则筛选出正确匹配优质的特征点;
步骤204:统计跟踪成功的特征点p'c(xc,yc)的数量,若成功跟踪的点数小于阈值δn,δn选择25到30特征点数,不满足位姿估计要求的点数,则将其设为重定位帧,进行重定位处理;
步骤205:将成功跟踪的特征点对p'c(xc,yc)和p'w(xw,yw,zw)送入PnP模型中,进行视觉位姿估计求解;
步骤206:得到本帧根据视觉位姿估计结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010763607.0/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种动铁芯燃气比例阀及燃气热水器
- 下一篇:一种腕带内抗拉折部件及其制备方法