[发明专利]一种基于虚拟双目视觉原理的摄像机参数自动标定方法有效
申请号: | 201810543989.9 | 申请日: | 2018-05-31 |
公开(公告)号: | CN108830906B | 公开(公告)日: | 2023-10-24 |
发明(设计)人: | 刘向军;叶坚坚 | 申请(专利权)人: | 福州大学 |
主分类号: | G06T7/80 | 分类号: | G06T7/80 |
代理公司: | 福州元创专利商标代理有限公司 35100 | 代理人: | 蔡学俊 |
地址: | 350108 福建省福*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 虚拟 双目 视觉 原理 摄像机 参数 自动 标定 方法 | ||
本发明提出一种基于虚拟双目视觉原理的摄像机参数自动标定方法,采用装置包括云台旋转支架、摄像机、外部触发电路、PC、绘有黑白格棋盘图案的标定板和两面成夹角设置的平面镜;两面平面镜设于云台旋转支架后方;标定板置于云台旋转支架处;摄像机设于云台旋转支架前方且摄像方面朝向两平面镜;当摄像机对标定板摄像时,其摄取的标定板图像包括标定板在两平面镜内形成的左右两个虚像;当标定板每转动一个角度时,外部触发电路控制摄像机对标定板摄像;PC对摄像机拍摄的标定板图像进行处理,以获取并标定摄像机的内部参数、畸变参数以及在世界坐标系下的外部参数;本发明解决了传统的人工寻找标定板角点的繁琐过程,简化了实验流程,便于操作。
技术领域
本发明涉及图像处理技术领域,尤其是一种基于虚拟双目视觉原理的摄像机参数自动标定方法。
背景技术
摄像机参数标定的目的是确定摄像机的位置、属性参数和建立成像几何模型,以便确定空间坐标系中物体点与它在图像平面上像点之间的对应关系。摄像机标定结果的准确性直接影响三维重建的精度,因此摄像机的标定在三维测试过程中占有十分重要的地位。
张正友法是广泛应用于计算机视觉领域的一种标定方法,利用黑白相间的棋盘格作为标定物,在摄像机前任意摆放,通过对采集到的不同角度的多张标定板图像进行处理来确定摄像机的内外部参数,具有标定精度高的优点,但在实际操作过程中存在标定板需要人工转动、图像处理过程人工干预多、工作量大、相关参数的处理和分析不方便等问题。基于此,许会等提出专利“一种鱼眼相机快速标定装置及标定方法”,通过控制鱼眼相机水平旋转和垂直旋转以自动采集不同视角的标定板图像,但未涉及标定板图像自动处理以及相机参数的自动计算过程。王平等提出专利“一种基于OpenCV摄像头标定的3D输入方法”,通过拍摄不同位置的标定板,利用OpenCV对图像进行自动处理,但只计算了摄像机的内部参数,适用于单目测量时单相机的标定。
本发明提出的基于虚拟双目视觉原理的摄像机参数自动标定方法是在双目立体视觉原理和张正友标定方法的基础上,仅使用一台摄像机和两面平面镜便能够实现双目视觉三维重建,解决了传统的双目视觉技术存在的同步性差和成本高的问题。同时利用外部触发电路控制标定板的自动转动,并控制摄像机延时拍摄,减少了人工干预带来的不确定性。在图像处理方面,本发明利用OpenCV计算机视觉库中的相关函数处理得到摄像机的内部参数,畸变参数和对应于世界坐标系的外部参数,解决了传统的人工寻找标定板角点的繁琐过程,简化了实验流程,便于操作,为被测物体三维重建奠定基础。
发明内容
本发明提出一种基于虚拟双目视觉原理的摄像机参数自动标定方法,解决了传统的人工寻找标定板角点的繁琐过程,简化了实验流程,便于操作。
本发明采用以下技术方案。
一种基于虚拟双目视觉原理的摄像机参数自动标定方法,所述标定方法采用自动标定装置对摄像机参数进行标定,所述标定装置包括云台旋转支架、摄像机、外部触发电路、PC、绘有黑白格棋盘图案的标定板和两面成夹角设置的平面镜;所述外部触发电路与PC、云台旋转支架和摄像机相连;所述两面平面镜设于云台旋转支架后方;所述标定板置于云台旋转支架处;摄像机设于云台旋转支架前方且摄像方面朝向两平面镜;当摄像机对标定板摄像时,其摄取的标定板图像包括标定板在两平面镜内形成的左右两个虚像;PC经外部触发电路控制云台旋转支架使标定板多角度转动;当标定板每转动一个角度时,外部触发电路控制摄像机对标定板摄像;所述PC与摄像机相连并以OpenCV计算机视觉库对摄像机拍摄的标定板图像进行处理,以获取并标定摄像机的内部参数、畸变参数以及在世界坐标系下的外部参数。
所述标定板、摄像机均设于两面平面镜夹角的角平分线上。
所述标定板上的方格数量在阈值以上。
所述标定方法包括图像采集环节和图像处理环节;所述图像采集环节包括以下步骤;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福州大学,未经福州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810543989.9/2.html,转载请声明来源钻瓜专利网。