[发明专利]摄像机的标定方法及摄像机标定装置有效
申请号: | 200810130737.X | 申请日: | 2008-07-14 |
公开(公告)号: | CN101630406A | 公开(公告)日: | 2010-01-20 |
发明(设计)人: | 李凯;刘源 | 申请(专利权)人: | 深圳华为通信技术有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00 |
代理公司: | 北京集佳知识产权代理有限公司 | 代理人: | 逯长明 |
地址: | 518129广东省深*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 摄像机 标定 方法 装置 | ||
1.一种摄像机的标定方法,其特征在于,包括:
对深度获取装置拍摄的图像和所述深度获取装置邻近的摄像机拍摄的图 像分别进行特征点检测;所述深度获取装置是指通过物理方式或通过软件方 式获取深度信息的装置,所述特征点是用二维坐标表示的图像的特征信息;
将所述检测的深度获取装置拍摄的图像的特征点与所述深度获取装置邻 近的摄像机拍摄的图像的特征点进行匹配,确定所述深度获取装置拍摄的图 像与所述深度获取装置邻近的摄像机拍摄的图像之间的可匹配特征点;
基于所述深度获取装置,获得所述可匹配特征点的三维世界坐标;
根据所述可匹配特征点的三维世界坐标及所述可匹配特征点在所述深度 获取装置邻近的摄像机拍摄的图像中的图像坐标的对应关系,确定所述深度 获取装置邻近的摄像机的参数。
2.如权利要求1所述的方法,其特征在于,所述深度获取装置是由单台 深度摄像机;或者是至少两台深度摄像机;或者是至少两台普通摄像机。
3.如权利要求1所述的方法,其特征在于,若所述深度获取装置拍摄两 幅以上图像,将所述检测的深度获取装置拍摄的图像的特征点与所述深度获 取装置邻近的摄像机拍摄的图像的特征点进行匹配包括:
将所述深度获取装置拍摄的两幅以上图像的特征点与所述深度获取装置 邻近的摄像机拍摄的图像的特征点进行匹配,所确定的可匹配特征点是所述 深度获取装置拍摄的两幅以上图像与所述深度获取装置邻近的摄像机拍摄的 图像的特征点的交集;或者,
对所述深度获取装置拍摄的两幅以上图像分别与所述深度获取装置邻近 的摄像机拍摄的图像进行匹配,所确定的可匹配特征点是所述深度获取装置 拍摄的两幅以上图像分别与所述深度获取装置邻近的摄像机拍摄的图像相匹 配的特征点的并集。
4.如权利要求1所述的方法,其特征在于,基于所述深度获取装置,获 得所述可匹配特征点的三维世界坐标包括:
根据双目摄像机的至少两组不同参数,以及所述可匹配特征点在所述双 目摄像机拍摄的图像中的图像坐标,获得所述可匹配特征点的三维世界坐标;
所述深度获取装置拍摄的图像具体是指:从所述双目摄像机在所述至少 两组不同参数条件下,拍摄包含标定模板的场景所得到的至少两组图像中分 别选取的至少两幅图像。
5.如权利要求4所述的方法,其特征在于,所述双目摄像机的至少两组 不同参数是通过对双目摄像机在至少两组不同参数条件下,拍摄包含标定模 板的场景所得到的至少两组图像并分别执行如下步骤所获得的:
检测所述双目摄像机在同一组参数条件下,拍摄包含标定模板的场景所 得到的一组图像的棋盘格的非共面角点;
获得所述角点的图像坐标;
为所述角点确定三维世界坐标;
根据所述角点的图像坐标和三维世界坐标,对所述双目摄像机进行标定, 确定所述双目摄像机的参数。
6.如权利要求4所述的方法,其特征在于,所述可匹配特征点在双目摄 像机拍摄的图像中的图像坐标是经过畸变消除处理的图像坐标。
7.一种摄像机的标定方法,其特征在于,包括:
对于单个深度获取装置在至少两组不同参数条件下分别拍摄的图像,分 别执行如权利要求1至6任一项所述的方法,获得邻近的摄像机的至少两组 参数;所述单个深度获取装置是单台深度摄像机,或至少两台普通摄像机;
对所获得的至少两组参数进行加权平均,获得所述邻近的摄像机的参数。
8.一种摄像机的标定方法,其特征在于,包括:
对于至少两个深度获取装置分别拍摄的图像,分别执行如权利要求1至 6任一项所述的方法,获得邻近的摄像机的至少两组参数;所述至少两个深 度获取装置是至少两台深度摄像机,或至少两台普通摄像机与至少一台深度 摄像机的组合;
对所获得的至少两组参数进行加权平均,获得所述邻近的摄像机的参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳华为通信技术有限公司,未经深圳华为通信技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/200810130737.X/1.html,转载请声明来源钻瓜专利网。