[发明专利]一种新型标靶及其亚像素级角点的提取方法有效
申请号: | 201810918877.7 | 申请日: | 2018-08-12 |
公开(公告)号: | CN109255818B | 公开(公告)日: | 2021-05-28 |
发明(设计)人: | 周素茵;徐爱俊;武新梅 | 申请(专利权)人: | 浙江农林大学 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06T5/00 |
代理公司: | 杭州创造力专利代理事务所(普通合伙) 33332 | 代理人: | 冉国政 |
地址: | 311300 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 新型 及其 像素 级角点 提取 方法 | ||
本发明公开了一种新型标靶及其亚像素级角点的提取方法,所述新型标靶包括矩形黑色块和矩形白色块交错叠置的棋盘格标靶,各个矩形黑色块和矩形白色块的宽度相等,标靶水平放置,后一排长度比前一排长度增加值为Δdi为:d*f’(x)mm。所述提取方法,利用基于生长的棋盘格角点检测方法定义两种不同的角点模板,运用OpenCV中的cornerSubPix()函数进行亚像素级角点定位,根据能量函数生长并重建棋盘格,标记角点,输出亚像素级角点坐标。本发明可以较准确的提取到光轴方向角点,而且合理的规避了透视变换对角点提取精度造成的影响;所述亚像素级角点的提取方法,对畸变程度较大的图片提取效果较好。
技术领域
本发明涉及地面近景摄影测量领域,尤其是一种单目视觉系统下针孔相机的新型标靶及其亚像素级角点的提取方法。
背景技术
基于图像的目标物测距,是目前的研究热点,在工业上的许多领域得到了广泛的应用,如林业测量、自动驾驶等等。基于图像的目标物测距,主要分为主动测距和被动测距两种方法[1]。主动测距是采用激光雷达进行测距[2-4]。被动测距是通过机器视觉对二维数字图像中目标物深度信息进行计算,然后根据图像像素信息及相机成像原理计算目标物距离[5-6]。利用机器视觉不但可以代替很多人工工作,提高生产自动化水平,提高检测精度,更是很多常规测量方法无法实现的有效解决途径。机器视觉测距主要分为单目视觉测距、双目视觉测距两类[1-9]。早期的深度信息获取方法主要是双目立体视觉和相机运动信息,需要多幅图像完成图像深度信息的获取[10-16]。与双目视觉测距相比,单目测距图像采集不需要严格的硬件条件,更具有竞争优势。由于相机获取的图像上的像点的几何位置与真实世界中对应物点的几何位置是密切相关的,这些位置及其相互关系则是由相机成像的几何模型决定的,因此一旦能够确定这个几何模型的参数,我们就可以完整地表达二维像点和三维物点之间的对应关系,从而计算出图像目标物距离。现有技术中,单目视觉系统的目标物深度信息获取有多种方法。如采用对应点标定法来获取待测目标物的深度信息[17-19]。文献[17]研究了一种基于单目视觉的机器人目标定位测距方法,该方法通常是通过相机标定获取相机内、外参数,结合投影模型求解出图像坐标系与世界坐标系之间的转换关系,从而计算目标物深度信息。不足的是,此方法需要采集不同方位的标靶图像,并精确记录每个点在世界坐标系和图像坐标系中的对应坐标,标定精度对于测量精度影响较大。此外,还可以通过研究世界坐标系中目标物实际成像与图像像素之间的关系构建深度提取模型,计算图像中目标物在实际场景中与相机之间的距离。文献[20]在路面摆放参照物并测量其距离,选择适合的数学模型,拟合参照物距离和像素之间的对应关系,再利用此关系实时提取深度信息。不足的是,文献[20]的方法精度会受到远距离测量误差及拟合误差的影响。文献[21]设计了一种立式标靶图像,通过检测该图像的角点数据建立图像纵坐标像素值与实际测量角度之间的映射关系,利用此关系结合已知的车载单目相机高度得到图像中车载深度信息。由于不同相机设备内部参数存在差异,对于不同型号的相机设备,该方法需要重新采集标靶图像信息,建立相机深度信息提取模型,且不同车载相机由于镜头制作与装配等原因,使得相机俯仰角也会存在差异,因此文献[21]的方法通用性较差。另外,文献[21]的方法采用立式标靶研究竖直平面像点成像角度与纵坐标像素值之间的关系,并将此应用于水平面上物体距离的测量,使得测距精度相对较低,因为相机水平与竖直方向畸变规律不完全相同。标靶的选择对深度提取模型的构建至关重要,然而,使用传统的棋盘格标靶研究物点实际成像角度和对应像点纵坐标像素之间的关系时,由于其长宽相等的特性,受透视变换现象的影响使得模型拟合效果较差,测量精度不高。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江农林大学,未经浙江农林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810918877.7/2.html,转载请声明来源钻瓜专利网。