[发明专利]一种双目视觉多线投影结构光标定方法在审
申请号: | 201611086274.2 | 申请日: | 2016-11-30 |
公开(公告)号: | CN106600647A | 公开(公告)日: | 2017-04-26 |
发明(设计)人: | 杨荣骞;肖伟虎 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06T7/80 | 分类号: | G06T7/80 |
代理公司: | 广州市华学知识产权代理有限公司44245 | 代理人: | 罗观祥 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 双目 视觉 投影 结构 标定 方法 | ||
技术领域
本发明属于机器视觉结构光三维测量领域,特别涉及一种双目视觉多线投影结构光标定方法。
背景技术
结构光三维测量是近年来工程应用中最有发展前景的三维数据采集方法之一,具有非接触、速度快、精度高、抗干扰强等优点,在工业检测、逆向工程、医学等领域有着深刻的意义和应用前景。
结构光测量原理是基于三角测量法,光学投射器投影结构光图案到被测物表面,摄像机采集到被测物表面畸变的图案,通过图案的畸变恢复表面轮廓。通过标定结构光,一个摄像机和一个光学投射器可以实现表面轮廓测量,但是单个摄像机测量表面曲率变化大的情况,部分光条会被表面凸起部位遮挡,产生视觉盲区,采用两台摄像机构成双目摄像机可以大大减少视觉盲区,这样需要标定两个摄像机及两个摄像机坐标系转换关系。
典型结构光模式有点结构光、线结构光及多线结构光、编码结构光等,点和线结构光特征信息简单,有着很好的鲁棒性,由于每帧图像得到的三维信息较少,为了完整的获得被测物的形貌,需要机械转台配合扫描,这增加了测量的时间。
实际应用中为了提高测量效率,设计了多线结构光测量系统,多线结构光带来标定复杂度增加和匹配的问题。标定结构光需要知道结构光面特征点或特征线信息,现常用的方法是采用平面靶标和三维靶标:采用三维靶标的方法需要知道三维靶标参数,三维靶标的精度直接影响标定结果,该类方法对三维靶标的精度高,增加了三维靶标加工难度和成本,或辅助以三维测量设备得到三维参数,该方法增加复杂度、测量时间;采用平面靶标的方法标定双目线结构光如孙长库等人提出的双目线结构光标定方法,需要精密移动导轨辅助,存在设备成本高、过程繁琐等缺点。
发明内容
为了克服现有技术的缺点与不足,本发明提供了一种双目视觉多线投影结构光标定方法。
本发明可以通过下述技术方案实现:一种双目视觉多线投影结构光系统标定方法,所述双目视觉多线投影结构光系统包括:左摄像机、右摄像机和投影仪,所述标定方法包括以下步骤:
步骤1:采用一块黑底白色平行条纹的平板靶标作为标定板,被测空间内移动标定板,多线结构光与标定板白色条纹相交形成交点点阵,并采用鼠标标记方法确定光条序号;
步骤2:左摄像机和右摄像机采集的点阵图像,点击点阵四个角点,采用网格化插值法得到点阵中其他交点初始估计位置;在交点初始估计位置k*k邻域采用大津阈值法和灰度加权平均法求得交点亚像素坐标;
步骤3:根据交点所属光条序号确定左摄像机图像和右摄像机图像中交点一一对应关系,通过已标定的左摄像机和右摄像机参数得到交点三维坐标;
步骤4:重复执行步骤1-3,将多次得到的交点三维坐标按照光条序号分类,对所有属于同一结构光面的点采用最小二乘法对属于同一条结构光的交点三维坐标进行平面拟合得到平面方程,直到得到所有结构光面在系统坐标系下平面方程,完成标定为止。
所述标定板是一块黑底白线条纹的平板靶标,所述白色条纹平行且间距相等,所述标定板对平整性无要求。
所述确定光条序号的鼠标标记方法是:通过鼠标放置在投影模板的某一条结构光作为标记光条,已知所述标记光条序号,通过点阵中第一列交点与标记光条序号相对位置得到第一列交点所属光条序号,通过点阵中最后一列交点与标记光条序号相对位置得到最后一列交点所属光条序号,采用网格化插值法得到点阵中其他交点初始估计位置,根据插入顺序确定其他交点所属光条序号。
所述权利要求1中求交点亚像素坐标:设定以初始估计位置为中心大小为k*k的方形邻域,k大小根据实际情况设定,采用大津阈值法得到方形邻域阈值t,假设k*k的方形邻域有m个像素灰度大于t,第i个像素坐标是ki=[kix,iy]T,该像素灰度为vi,交点亚像素坐标由下式计算出来:
其中,u代表交点亚像素坐标,t代表阈值,m代表大于方形邻域中灰度大于阈值的像素数量,ki=[kix,kiy]T代表第i个像素坐标,kix代表第i个像素横坐标,kiy第i个像素纵坐标,vi代表第i个像素灰度值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611086274.2/2.html,转载请声明来源钻瓜专利网。