[发明专利]一种基于深度学习消除栅线投影相移技术中离焦误差的方法有效
申请号: | 202110506713.5 | 申请日: | 2021-05-10 |
公开(公告)号: | CN113192146B | 公开(公告)日: | 2022-08-16 |
发明(设计)人: | 刘聪;任东;章闯;尹卓异;刘晓鹏 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06N3/04;G06N3/08 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 封睿 |
地址: | 210094 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 消除 投影 相移 技术 中离焦 误差 方法 | ||
本发明提供了一种基于深度学习的栅线投影相移技术中的离焦误差消除方法,生成一定周期的光栅图像,利用不同的高斯卷积核对图像进行卷积来生成不同程度的离焦图像,对图像进行相移从而生成初始训练集;构建一个多层多神经元的神经网络,对训练集进行数据换序、数据正则化处理操作,对学习网络进行训练。对于实际应用过程中所采集到的数据进行预处理,导入网络中即可得到最终的修正结果。本发明对于离焦程度不当所引入的高阶谐波信息有着极好的抑制作用,并且降低了算法复杂度,提高了处理速度,对于不同具体测量过程普适性高。
技术领域
本发明涉及光测实验固体力学领域和图像测量技术,具体涉及一种基于深度学习消除栅线投影相移技术中离焦误差的方法。
背景技术
在光测力学领域,栅线投影法是一种基本的光学形貌测量方法。栅线投影法直接利用被调制栅线的相位畸变信息来得到物体的三维信息,采用数学的方法解调相位,而且可以自动判别物体的凹凸性。因此图像处理易于实现自动化、具有较高的精度和灵敏度。为了便于测量,栅线投影法中,投影仪投影的是二维结构图案(条纹图案)而不是3D形状的正弦图案,然后二进制模式被模糊成准正弦曲线通过适当地使投影机离焦来实现图案。这种技术称为二进制离焦技术。它不仅能消除伽马失真,还实现了高速3D测量。然而二进制离焦技术存在一些问题:如果离焦程度太小,则图案不是正弦曲线,包含许多高次谐波。如果投影机离焦,则图案的对比度较低太多了。非正弦结构由高阶引起二进制离焦技术中的谐波将误差引入解调相位,会降低3D测量的精度。此外在实际应用中,想要提高测量的精确度,必须考虑到电子器件本身存在的β失真导致的接收到的图像具有一定非正弦特征的问题。这类问题影响了测量的精准度,不利于高精度光测力学的发展。目前国内外的解决方案中没有一种准确、方便快捷的相位求解方法。
发明内容
本发明的目的在于提供一种基于深度学习消除栅线投影相移技术中离焦误差的方法。
实现本发明目的技术解决方法为:一种基于深度学习消除栅线投影相移技术中离焦误差的方法,该方法的实验装置包括:工业相机、高分辨率镜头、光学平台、电子计算机、投影仪、黑色标定平板及其固定装置,该方法包括以下步骤:
步骤1、神经网络训练集生成:首先生成一个数值周期的光栅图像,利用不同的高斯卷积核对生成的光栅图像进行卷积得到不同程度的离焦图像,对离焦图像进行S步相移,提取每个像素点处的S个灰度值,然后进行数值换序和近似正则化预处理生成最终的训练集;
步骤2、神经网络的训练:搭建一个神经网络,具有S个灰度输入和1个相位输出,将已有的训练集中一定比例的数据输入至网络进行训练,利用剩余的数据进行验证;
步骤3、实验装置的固定:将标定板、相机与投影仪固定在光学平台上,限制各部分之间的相对位移,这一过程中,应将相机镜头方向指向标定板平面并使标定板在相机视角中处于居中位置,将投影仪镜头对准标定板的最大平面方向进行定位;
步骤4、光栅图像的采集:利用投影仪向标定板平面投射一幅二值化的光栅图像,利用相机采集映射在标定板上的光栅图像;
步骤5、神经网络可用性的实验检测:利用步骤5采集多组不同离焦程度下真实标定数据,对标定数据进行数值换序和近似正则化预处理,实验检测通过才应用于步骤6的实际数据采集中,否则需要调整神经网络结构;
步骤6、实际数据的采集:将相机焦距对焦至测量物体,调节光圈使得栅线最大值达到最大灰度,采集被测量物体及其栅线的相移图像;
步骤7、测量数据的获得:对步骤6中采集的数据进行数值换序和近似正则化预处理,进而导入至训练完成且通过检验的深度学习网络中,导出修正值(相位值),并通过反数据换序补偿得到最终的消除离焦误差的实际测量结果。
进一步的,步骤1、步骤5、步骤7中,数值换序预处理,过程如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110506713.5/2.html,转载请声明来源钻瓜专利网。