[发明专利]一种基于resUnet的光学元器件损伤检测方法及系统有效
申请号: | 201910584766.1 | 申请日: | 2019-07-01 |
公开(公告)号: | CN110334760B | 公开(公告)日: | 2021-06-08 |
发明(设计)人: | 不公告发明人 | 申请(专利权)人: | 成都数之联科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06T7/00 |
代理公司: | 成都行之专利代理事务所(普通合伙) 51220 | 代理人: | 熊曦 |
地址: | 610000 四川省成都市*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 resunet 光学 元器件 损伤 检测 方法 系统 | ||
本发明公开了一种基于resUnet的光学元器件损伤检测方法及系统,所述方法包括:采集同一光学元器件的两组图像,一组为高分辨率图像A,一组为低分辨率图像B;分别二值化处理图像A和图像B;基于二值化处理后的图像A和图像B,依据图像A和图像B的对应关系生成标签数据;将标签数据对应的图像B的二值化图像切割为若干大小相同的子图像,将切割生成的子图像作为训练数据集;利用训练数据集训练resUnet模型;将图像B输入训练后的resUnet模型,获得光学元器件损伤检测结果;利用高分辨率图像标注光学元器件损伤点位置,无须人工打标,即可完成图像信息量非常少、高噪声的条件下光学元器件损伤点位置检测。
技术领域
本发明涉及图像语义分割领域,具体地,涉及一种基于resUnet的光学元器件损伤检测方法及系统。
背景技术
图像语义分割是图像处理到图像分析的关键步骤,是把图像分成若干个特定的、具有独特性质的区域并提取感兴趣目标的技术和过程。从数学角度来看,图像分割是将图像划分成互不相交的区域的过程。图像分割过程也是一个标记过程,即把属于同一区域的像素赋予相同的类别。
传统的图像分割方法主要分以下几类:基于阈值的分割方法、基于区域的分割方法、基于边缘的分割方法以及基于特定理论的分割方法等。传统方法主要依赖人工检测光学元器件的损伤区域,不仅耗时费力,而且检测错误率高,易出现错检漏检,造成大量不必要的成本损耗。
利用深度学习方法的目标检测算法与语义分割算法能够检测损伤区域。目标检测算法侧重检测识别具有较强视觉特征的目标,而对特征不明显的小目标识别能力较弱。在无需区分目标实例的情况下常常使用语义分割算法识别小目标,主要分为基于解码器、信息融合和循环神经网络(RNN)等的不同语义分割算法。语义分割既要克服同类物体因光线、角度和状态等不同产生的差异性,还要解决不同类物体之间的高度相似性。此外,语义分割的实际场景往往是复杂多样的,物体间常伴随有遮挡、割裂现象,进一步增加了语义分割的难度。
发明内容
本发明采用resUnet深度学习方法,针对光学元器件损伤点成像的低分辨率图像和高分辨率图像,利用高分辨率图像标注光学元器件损伤点位置,无须人工打标,即可完成光学元器件图像信息量非常少、高噪声的条件下光学元器件损伤点位置的检测。
另外本方法和系统在resUnet模型中选择了32*2,32*2,32*4,32*16的特征层数,同时采用3*3的卷积使得模型能够较好区分纹理细节;在卷积层之后都加入了GN层,提高了数据学习效率和检测能力。
为实现上述发明目的,本发明一方面提供了一种基于resUnet的光学元器件损伤检测方法,所述方法包括:
采集同一光学元器件的两组图像,一组图像的分辨率高于另外一组,其中A组为高分辨率图像,B组为低分辨率图像;
分别二值化处理图像A和图像B;
基于二值化处理后的图像A和图像B,依据图像A和图像B的对应关系生成标签数据;
将标签数据对应的图像B的二值化图像切割为若干大小相同的子图像,将切割生成的子图像作为训练数据集;
利用训练数据集训练resUnet模型;
将图像B输入训练后的resUnet模型,获得光学元器件损伤检测结果。
其中,本方法使用resUnet模型检测光学元器件损伤点或其他标记区域,学习能力更强,识别效果也更精确;本方法在最终检测之前先对标签数据和预测图像进行膨胀操作,用于减小计算误差,提高模型识别能力;本方法采用光学元器件的高清图像作为标注数据,大大减少人工打标的工作量。
进一步的,所述分别二值化处理图像A和图像B,具体包括:将像素灰度值小于100的像素点灰度值置为0,将像素灰度值大于或等于100的像素点灰度值置为255,实现图像二值化。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都数之联科技有限公司,未经成都数之联科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910584766.1/2.html,转载请声明来源钻瓜专利网。