[发明专利]显微深度聚焦测量中镜头光轴与纵向运动轴夹角的校正方法在审
申请号: | 202211064097.3 | 申请日: | 2022-08-31 |
公开(公告)号: | CN115468747A | 公开(公告)日: | 2022-12-13 |
发明(设计)人: | 王跃宗;贾鹏煊;贾皓然;陈可欣 | 申请(专利权)人: | 北京工业大学 |
主分类号: | G01M11/02 | 分类号: | G01M11/02;G02B21/02;G06T7/73 |
代理公司: | 北京思海天达知识产权代理有限公司 11203 | 代理人: | 刘萍 |
地址: | 100124 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 显微 深度 聚焦 测量 镜头 光轴 纵向 运动 夹角 校正 方法 | ||
本发明涉及一种显微深度聚焦测量中镜头光轴与纵向运动轴夹角的校正方法,包含显微视觉系统、平面标定板、阶梯状三维标定物的光轴校正装置,首先通过平面标定板多聚焦图像序列的采集与分析对载物台进行初校正。然后基于多个模块对三维标定物阶梯分界线处不同平面的两图像进行采集与分析,通过检测两图像中阶梯分界线的相对偏移实现显微镜光轴的校正。本发明可以有效减小显微视觉系统采集得到多聚焦图像序列的偏移误差,提高深度聚焦三维重建的精度。
技术领域
本发明涉及显微深度聚焦测量的技术领域,具体涉及显微深度聚焦测量中镜头光轴与纵向运动轴夹角的校正方法。
背景技术
近年来,随着精密加工、微器件的发展,微观表面形貌测量技术取得了巨大的进步。在微纳级的测量技术中,应用较为广泛的便是显微三维测量技术。如今的显微三维测量技术多基于计算机视觉,通过结合图像处理的相关算法对微观物体进行三维形貌的测量甚至重建。显微三维测量中较为常用的几种算法分别是:双目视觉法、聚焦法和离焦法。其中聚焦法主要用于显微领域的三维重建,通过显微视觉系统采集样本物体的多聚焦图像序列,然后利用聚焦评价函数从图像序列中提取深度信息并对图像序列进行融合,由此重建出样本表面的三维形貌。
在深度聚焦三维测量中,一种模式是采用自动调焦镜头,通过改变镜组间距进行调焦采图;另外一种则是显微镜头的参数不变,通过控制显微镜上下移动改变物距进行采图。而显微镜与电控平移台的纵向运动轴不可避免的会存在装配误差,使显微镜光轴相对电控平移台的纵向运动轴方向存在夹角,以至于采集到的样本物体的图像序列会发生不同程度的偏移,使其序列图像的对应像素点不能严格对齐,极大的影响了三维测量的精度。因此需要对显微镜光轴进行校正,使其相对纵向运动轴方向平行,以保证三维测量的精度。
目前,传统的显微镜光轴校正方法主要有传感器校正、图像分析校正两大类,其中传感器校正以激光靶面校正、自准直仪校正等方法为主。激光靶面校正的精度易受校正装置及接收靶面安装位置的影响,且其装置的安装及拆卸过程也较为繁琐。自准直仪校正虽然精度较高,但其设备价格普遍较高,且校正过程繁琐、速度慢。图像分析校正的方法大多是通过采集样本物体的图像序列进行偏移检测来对光轴进行校正,这种方法操作简便且精度较高。但在显微深度聚焦测量中,通常是对微小尺度的样本物体进行表面重构,其物镜的景深范围要求处于微米级甚至更低,采集到的图像序列的清晰范围非常有限,所以无法通过样本物体图像序列的偏移检测来对光轴进行校正。
综上所述,针对现有的校正装置普遍存在安装不便性、校正过程繁琐、精度低等诸多缺陷,以及显微深度聚焦测量中镜头景深较小的局限性,亟需一种能够同时兼顾校正精度和校正效率的校正方式。由此本发明将图像的清晰度评价算子与特制三维标定物相结合,推出了显微深度聚焦测量中镜头光轴与纵向运动轴夹角的校正方法。其中清晰度评价算子多用于深度聚焦三维重建中,通过清晰度评价算子对图像进行区域遍历提取聚焦区域的深度信息进行样本物体的重建。王金岩在“基于Depth from Focus的图像三维重建”中提出通过拉普拉斯聚焦算子对图像序列划分区域块进行聚焦区域评价,进而对获得的深度索引图进行高斯插值获得样本物体重建的三维图像。赵洪盛在“基于图像区域像素重构的聚焦形貌恢复”一文中提出通过基于中心像素点的n×n邻域的梯度算子来提取多聚焦图像序列中的聚焦区域及其深度,再通过插值拟合重构样本物体的三维形貌图。本发明将清晰度评价算子用于特制的三维标定物,通过对三维标定物的不同高度图像进行聚焦、离焦区域的提取及分析来对显微镜光轴偏移进行检测与校正,避免了校正装置安装与拆卸的繁琐性,可重复性较强,且校正精度高。
发明内容
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211064097.3/2.html,转载请声明来源钻瓜专利网。