[发明专利]一种基于深度卷积神经网络的布匹疵点识别方法在审
申请号: | 201910527733.3 | 申请日: | 2019-06-18 |
公开(公告)号: | CN112102224A | 公开(公告)日: | 2020-12-18 |
发明(设计)人: | 朱威;陈康;任振峰;郑雅羽 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06K9/62;G06N3/04 |
代理公司: | 杭州赛科专利代理事务所(普通合伙) 33230 | 代理人: | 郭薇 |
地址: | 310014 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 卷积 神经网络 布匹 疵点 识别 方法 | ||
1.一种基于深度卷积神经网络的布匹疵点识别方法,其特征在于,所述的识别方法包括以下步骤:
(1)Faster R-CNN神经网络修改;
(2)收集布匹疵点原始数据,使用数据增强的方法扩充数据集;
(3)神经网络训练优化:
采用变化的学习率训练(1)中改进后的Faster R-CNN网络模型;
(4)布匹图像实时检测与分类:
(4-1)使用工业相机采集布匹的原始图像;
(4-2)使用训练好的改进Faster R-CNN神经网络对布匹图像进行疵点检测,得到疵点在图像中的位置及其类型;
(4-3)重复步骤(4-1)至步骤(4-2),完成整卷布匹的检测。
2.如权利要求1所述的一种基于深度卷积神经网络的布匹疵点识别方法,其特征在于,所述的步骤(1)中包含以下子步骤:
(1-1)将Faster R-CNN的特征提取网络VGG-16中的前两个全连接层FC1、FC2用一个全局平均池化层替代,第三个全连接层FC3保持不变;
(1-2)在Faster R-CNN的原区域生成网络的9种预测锚点框的基础上增加锚点框的尺度大小与尺度变化种类,生成多于9个尺度变化的锚点框。
3.如权利要求2所述的一种基于深度卷积神经网络的布匹疵点识别方法,其特征在于,所述步骤(1-2)中,生成16个尺度变化的锚点框,生成锚点框的长宽比条件ratios=[0.25,0.5,1,2]、生成锚点框的面积条件scales=[4,8,16,32]。
4.如权利要求1所述的一种基于深度卷积神经网络的布匹疵点识别方法,其特征在于,所述的步骤(2)中包含以下子步骤:
(2-1)通过摄像头采集基础布匹疵点图像;
(2-2)经过图像翻转、图像缩放、图像融合的方式扩充数据集,实现数据增强;
(2-3)将疵点分类。
5.如权利要求4所述的一种基于深度卷积神经网络的布匹疵点识别方法,其特征在于,所述步骤(2-2)中,图像融合如式(1)所示,
ImageM=α×Image1+β×Image2 (1)
其中,ImageM为融合后的图像,Image1和Image2为任意两张分辨率大小、图像格式相同的布匹疵点图像,α为Image1所占的权重系数,取值范围为[0,1],β为Image2所占的权重系数,取值范围为[0,1],α+β=1。
6.如权利要求4所述的一种基于深度卷积神经网络的布匹疵点识别方法,其特征在于,所述步骤(2-3)中,将疵点分类为重经重纬、断经断纬、筘痕、斑点、破洞、折痕、渍疵七个大类,图像融合的形式包含疵点类间组合以及类内组合。
7.如权利要求1所述的一种基于深度卷积神经网络的布匹疵点识别方法,其特征在于,所述的步骤(3)中包含以下子步骤:
(3-1)设置训练初始学习率lr为0.001,以步骤(2)的数据集训练步骤(1)中改进后的Faster R-CNN网络模型;
(3-2)当训练的总迭代次数达到n1次之时,将降低学习率lr到0.0001,其中n1的取值范围为[10000,500000];
(3-3)当训练的总迭代次数达到n2之时,将学习率降lr至0.00001,直至收敛到局部最优迭代结束得到训练好的模型参数,其中次数n2的范围为[20000,1000000],且要求n2大于n1。
8.如权利要求1所述的一种基于深度卷积神经网络的布匹疵点识别方法,其特征在于,所述的步骤(4)中的步骤(4-2)使用训练好的改进Faster R-CNN神经网络模型对布匹图像进行疵点检测包含以下子步骤:
(4-2-1)使用VGG-16的13个共享卷积层提取布匹图像特征,生成特征图;
(4-2-2)对特征图做维度为256、卷积核大小为3×3、步长为1的卷积,根据RPN网络对每个锚点框做分类学习,区分属于前景还是后景,以及对分类框位置回归调整至疵点所在的区域范围,输出分类得分与各个框回归后的位置坐标;
(4-2-3)根据RPN的区域意见生成ROI区域,并将各ROI区域统一至7×7大小,每个ROI区域包含512个通道,ROI区域经过全局平均池化层与全连接层将特征映射到样本空间,得到在各样本空间上的分类得分及回归后的目标边框;
(4-2-4)根据分类得分和回归后的目标边框位置信息,对每个目标框的分类得分做分类排序,获取最高得分的类,当最高得分超过设定阈值TH时则该目标框内为最高得分的疵点类,否则目标框内无疵点,输出检测出的疵点类别以及位置信息,TH的取值范围为[0,1]。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910527733.3/1.html,转载请声明来源钻瓜专利网。
- 上一篇:柔性电池
- 下一篇:基于神经网络的人物发型替换方法、装置、设备和介质