[发明专利]基于改进DenseNet网络的地基云自动识别方法在审
申请号: | 202211503023.5 | 申请日: | 2022-11-28 |
公开(公告)号: | CN115861985A | 公开(公告)日: | 2023-03-28 |
发明(设计)人: | 王敏;庄志豪;李晟;王康;吴佳;孙硕;马睿;石明航;许永琪;朱永楠 | 申请(专利权)人: | 南京信息工程大学 |
主分类号: | G06V20/60 | 分类号: | G06V20/60;G06V10/20;G06V10/82;G06N3/0464;G06N3/096 |
代理公司: | 南京经纬专利商标代理有限公司 32200 | 代理人: | 王美章 |
地址: | 210032 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 改进 densenet 网络 地基 自动识别 方法 | ||
1.一种基于改进DenseNet网络的地基云自动识别方法,其特征在于,包括以下步骤:
S1、收集并预处理地基云图数据集;
S2、结合地基云网络的特性来修改DenseNet网络的结构,对DenseNet网络的顶层部分重新设计,具体包括如下子步骤:
S21、首先使用一个Flatten层将前一个卷积层展平,即将之前多维的数据变成一维的,denseNet最顶端的卷积层维度是7x7x1024,故Flatten的维度设为1x50176;
S22、之后在Flatten层后,添加三个全连接层,三个全连接尺寸分别为1x1024、1x512、1x32,在全连接层中间添加了两个batch normal层,batch normal层可以使每层的数据转换为均值为0,方差为1的数据,使数据分布更均匀,也允许使用较大的学习率去训练网络,两个batch normal层分别放置在尺寸是1x1024的全连接层和尺寸是1x512的全连接层后面;
S23、最后在尺寸是1x32的全连接层后面添加一个带有softmax函数的7分类层,新添加的神经元使用Lecun初始化方法初始化神经元的权重;
S3、使用迁移学习对经步骤S2修改后的DenseNet网络进行训练;
将DenseNet网络在大数据集ImageNet中预训练的权重,导入DenseNet网络中,然后再对DenseNet网络在地基云图数据集上进行训练;
S4、在步骤S1预处理后的地基云数据集上对修改后完整的DenseNet网络模型进行微调,使DenseNet网络的权重在训练过程中得到调整。
2.根据权利要求1所述的基于改进DenseNet网络的地基云自动识别方法,其特征在于,步骤S1中,对地基云数据集的预处理操作包括:云图的筛选、图片像素值的比对、图像归一化以及数据集增强。
3.根据权利要求1所述的基于改进DenseNet网络的地基云自动识别方法,其特征在于,步骤S4,在地基云数据集上对修改后完整的DenseNet网络模型进行微调,包括对不同的卷积层进行冻结,使用不同的学习率进行训练,具体包括以下子步骤:
S41、首先对地基云数据集中的样本进行归一化处理,即将图像的输入RGB值除以255,得到的值在0到1之间,随后建立DenseNet121网络;将ImageNet数据集预训练的网络权值导入DenseNet121网络;冻结相关参数,采用上述方法对顶层进行修改;使用LeCun均匀分布对新增层的参数进行初始化;
S42、建立参数训练网络后,对参数训练网络进行调整,首先,只训练顶层的参数,然后解冻DenseNet121网络底层的一部分,DenseNet121网络分为五个大的卷积块,从第三块开始微调,具体到第141层,解冻后进行步骤S421~步骤S425;
S421、训练网络前10个epoch,学习率0.0001;
S422、训练网络前10个epoch,学习率0.00005;
S423、训练网络前10个epoch,学习率0.00001;
S424、从第三个卷积块开始进行微调,即解冻第三个卷积块之后的参数,首先,训练20个epoch,学习率为0.00005;
S425.最后训练20个epoch,学习率0.00001。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京信息工程大学,未经南京信息工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211503023.5/1.html,转载请声明来源钻瓜专利网。