[发明专利]一种基于卷积神经网络的工件表面缺陷检测方法有效
申请号: | 201711121537.3 | 申请日: | 2017-11-14 |
公开(公告)号: | CN107966447B | 公开(公告)日: | 2019-12-17 |
发明(设计)人: | 刘云海;梁智聪 | 申请(专利权)人: | 浙江大学 |
主分类号: | G01N21/88 | 分类号: | G01N21/88;G06T7/00 |
代理公司: | 33200 杭州求是专利事务所有限公司 | 代理人: | 刘静;邱启旺 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 工件 表面 缺陷 检测 方法 | ||
1.一种基于卷积神经网络的工件表面缺陷检测方法,其特征在于,包括以下步骤:
(1)多路图像采集:利用多个摄像头与光源的组合,采集工件的各个表面的图像;
(2)图像的预处理:目标区域切割,图像增强以及改变图片大小;
(3)构造用于缺陷检测的卷积神经网络结构:网络的设计采用全卷积神经网络结构组成的语义分割网络,全卷积神经网络结构仅由多个卷积层以及反卷积层组成,不包含全连接层,是一种从图像到图像的卷积神经网络结构;
(4)构造训练样本:以工件的原图像作为语义分割网络的输入,手工标注的标签图作为网络的标签;
(5)训练卷积神经网络:采用反向传播算法训练卷积神经网络的参数;具体为:利用BP算法更新卷积神经网络参数,训练的具体步骤如下:
(5.1)初始化权重:卷积神经网络的权重初始化采用xavier方法,该方法使参数以均匀分布的方式在的范围内被初始化,其中a为参数所在层的输入维度,b为参数所在层的输出维度;
(5.2)确定学习率以及训练次数;
(5.3)输入样本到卷积神经网络中,计算每一层以及输出层的输出;
(5.4)计算输出与标签的代价函数;具体为:卷积神经网络的代价目标为图像与图像之间的差异度,所以训练卷积神经网络所使用的代价函数使用L1 loss代价函数,表达式如下:
其中n为输出的图片的像素量,li为标签图的像素值,yi为卷积神经网络的输出值;
(5.5)利用代价函数计算出每一层的残差,并求出该层的参数的梯度;
(5.6)根据学习率更新每一层的权重;
(6)将待测工件的图像输入到训练好的卷积神经网络中,获取像素级的缺陷区域标记图像;
(7)根据获得标记的信息判断工件的缺陷种类及程度。
2.根据权利要求1所述的一种基于卷积神经网络的工件表面缺陷检测方法,其特征在于,所述步骤(1)中,多路图像采集包括以下子步骤:
(1.1)摄像头通过网口或USB与工控机连接,光源通过串口与工控机连接;
(1.2)工件到达指定位置触发摄像头,获取工件各面图像;
(1.3)根据拍摄面的不同,利用串口控制光源方向与强度;
(1.4)把图像通过数据线传到工控机等待处理。
3.根据权利要求1所述的一种基于卷积神经网络的工件表面缺陷检测方法,其特征在于,所述步骤(2)中,图像的预处理包括:
(2.1)目标区域分割:遍历原图I,以阈值threshold找到工件区域的上下左右边界,对原图进行抠图,获得工件图像I2;
(2.2)图像增强:对工件图像I2进行对数图像增强,获得增强后的图像I3,公式如下:
其中,OldPixel为原图像素值,NewPixel为增强后的图像像素值;
(2.3)改变图片大小:把不同大小的图像I3,利用双线性插值法调整为统一的大小。
4.根据权利要求1所述的一种基于卷积神经网络的工件表面缺陷检测方法,其特征在于,所述步骤(3)中,所设计的全卷积神经网络结构主要由多个卷积层和反卷积层组成,卷积层位于网络结构前半部分,反卷积层位于网络结构后半部分,卷积层和反卷积层数量相等,相邻的两层之间用Batch Normalization层和PRelu层连接,输入层把图片数据从[0,255]归一化到[-1,1],输出层使用Tanh层,同样使输出数据的范围保证在[-1,1]。
5.根据权利要求1所述的一种基于卷积神经网络的工件表面缺陷检测方法,其特征在于,所述步骤(4)中,所构造的训练数据中,每一个训练数据均由两部分组成,第一部分为工件的原始图像,图像中包含工件的全貌,第二部分是标签图,标签图利用原图生成,生成的方法如下:
(4.1)原图中的不同区域分别对应一个标签,标签的形式为图像中不同的颜色;
(4.2)手工描点,利用凸包把不同的区域包裹起来;
(4.3)把区域对应的标签覆盖到原图中,形成标签图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711121537.3/1.html,转载请声明来源钻瓜专利网。