[发明专利]一种相机自动标定方法及光学动作捕捉系统有效
申请号: | 201811611431.6 | 申请日: | 2018-12-27 |
公开(公告)号: | CN109754432B | 公开(公告)日: | 2020-09-22 |
发明(设计)人: | 王越;赵晓琴;许秋子 | 申请(专利权)人: | 深圳市瑞立视多媒体科技有限公司 |
主分类号: | G06T7/80 | 分类号: | G06T7/80 |
代理公司: | 深圳鼎合诚知识产权代理有限公司 44281 | 代理人: | 胥强;彭家恩 |
地址: | 广东省深圳市南山区粤海街道沙河西路1*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 相机 自动 标定 方法 光学 动作 捕捉 系统 | ||
一种相机自动标定方法及光学动作捕捉系统,该相机自动标定方法包括确定步骤、处理步骤、计算步骤、更新步骤和迭代步骤、结束步骤。一方面,该相机自动标定方法适用于计算机视觉系统,可在系统对测试点进行采集的同时不断地更新相机的标定参数,通过不断优化相机的标定状态来实现自动标定的功能,利于使得系统时刻处于最优的标定状态,从而提升系统运行的精确度和流畅性;另一方面,由于通过确定步骤找出了待重新标定的相机,使得待重新标定的相机处于屏蔽状态,如此,既可以不影响其它相机的正常工作,又可以通过正常工作的相机来支持待重新标定的相机进行相机自动标定。
技术领域
本发明涉及相机标定技术领域,具体涉及一种相机自动标定方法及光学动作捕捉系统。
背景技术
在图像测量过程以及机器视觉应用中,为确定空间物体表面某点的三维几何位置与其在图像中对应点之间的相互关系,必须建立相机成像的几何模型,这些几何模型参数就是相机参数。在大多数条件下这些参数必须通过实验与计算才能得到,这个求解参数的过程就称之为相机标定(或摄像机标定)。
例如,在光学运动捕捉系统中,采用多个相机的形式采集运动对象的光学图像,在光学运动捕捉过程中,跟踪定位软件均采用计算机多目视觉原理,根据图像二维点云间的匹配关系及相机的相对位置和朝向,计算点云在三维捕捉空间内的坐标及方向。以点云的三维坐标为基础,通过识别绑定在运动物体不同部位的刚体结构,解算出每个刚体在运动空间内的位置及朝向,进而确定出运动物体在运动空间内的运动轨迹。为了精确地计算三维捕捉空间内的点云坐标以及刚体运动姿态,动作捕捉系统运行前均需要确定所有相机的自身状态以及它们之间的相互位置关系,这就需要进行相机标定。
无论是在光学动作捕捉、图像测量或者机器视觉应用中,相机参数的标定都是非常关键的环节,其标定结果的精度及算法的稳定性直接影响到相机工作产生结果的准确性,甚至相机标定的精确度会直接影响整个光学动作捕捉系统的捕捉精度,具有差之毫厘谬以千里的重大影响,因此,做好相机标定是做好后续工作的前提。
然而,在光学动作捕捉系统的应用过程中,关于相机标定还存在以下问题:(1)系统运行的环境是不断变化的,比如说早晚温度的差异,这会影响相机的自身状态,也就是相机内参;(2)相机安装环境不可避免的会遇到震动,从而导致相机和初始安装位置发生了偏移,会影响到当前相机之间的位置关系,也就是相机外参;(3)现实中我们不可能随时都对系统重新进行相机标定,这会浪费大量的时间,也大大降低了整个系统的运行流畅性。
发明内容
本发明主要解决的技术问题是在如何及时地对计算机视觉系统中的多个相机进行相机自动标定。为解决上述技术问题,本申请提供一种相机自动标定方法及光学动作捕捉系统。
根据第一方面,一种实施例中提供一种相机自动标定方法,用于对多个相机进行标定,所述相机自动标定方法包括以下步骤:
确定步骤:从多个所述相机中确定出待重新标定的相机;
处理步骤:根据空间中多个测试点的第一投影点集与所述待重新标定的相机拍摄到的多个所述测试点的第一采集点集,确定所述第一投影点集中的投影点和所述第一采集点集中的采集点之间点与点的匹配关系;所述第一投影点集是:第一空间坐标投影到所述待重新标定的相机时在相机坐标系中形成的二维点的集合,所述第一空间坐标是所述待重新标定的相机之外的其它相机采集多个所述测试点形成的;第一采集点集是所述待重新标定的相机拍摄多个所述测试点形成的二维点的集合;
计算步骤:根据所述点与点的匹配关系,计算所述第一投影点集中每个投影点与所述第一采集点集中相匹配的采集点之间的距离差;以及根据所述距离差得到所述待重新标定的相机的新标定参数;
更新步骤:用所述新标定参数对所述待重新标定的相机的当前标定参数进行更新。
所述确定步骤包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市瑞立视多媒体科技有限公司,未经深圳市瑞立视多媒体科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811611431.6/2.html,转载请声明来源钻瓜专利网。