[发明专利]一种基于深度迁移学习的绝缘子类别检测方法有效
申请号: | 201910441464.9 | 申请日: | 2019-05-24 |
公开(公告)号: | CN110147777B | 公开(公告)日: | 2021-03-09 |
发明(设计)人: | 李帷韬;焦点;张倩;丁美双 | 申请(专利权)人: | 合肥工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 安徽省合肥新安专利代理有限责任公司 34101 | 代理人: | 陆丽莉;何梅生 |
地址: | 230009 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 迁移 学习 绝缘子 类别 检测 方法 | ||
1.一种基于深度迁移学习的绝缘子类别检测方法,其特征是按如下步骤进行:
步骤1、对航拍绝缘子图像集进行预处理,得到预处理后的绝缘子图像集;
步骤2、对所述预处理后的航拍绝缘子图像集进行扩充处理,得到扩充后的航拍绝缘子图像集;
步骤3、将所述扩充后的航拍绝缘子图像集进行分类,分为航拍完好绝缘子图像集N1和航拍自爆绝缘子图像集N2;
步骤4、对所述完好绝缘子图像集N1和自爆绝缘子图像集N2中各m幅航拍绝缘子图像进行人工标注,框出绝缘子区域所在的矩形边界框,并记录各个矩形边界框的坐标位置,从而得到标注后的航拍绝缘子图像集作为绝缘子检测的训练集合T1;将所述完好绝缘子图像集N1和自爆绝缘子图像集N2中其余航拍绝缘子图像作为绝缘子检测的测试集合T2;
步骤5、利用所述训练集合T1对目标检测YOLO模型进行训练,得到绝缘子串检测模型,从而利用所述绝缘子串检测模型对所述测试集合进行检测,得到测试集合中所有航拍绝缘子图像的矩形边界框的坐标位置;
步骤6、裁剪出所述训练集合T1中人工标注的矩形边界框和测试集合T2中所有航拍绝缘子图像的矩形边界框并进行归一化操作,得到目标绝缘子图像集合;再将所述目标绝缘子图像集合重新进行分类,分为包含k1幅完好绝缘子图像的完好绝缘子图像集记为g,包含k2幅自爆绝缘子图像的自爆绝缘子图像集记为v;
从所述完好绝缘子图像集g中取出m1幅完好绝缘子图像,并从所述自爆绝缘子图像集v中取出m2幅自爆绝缘子图像共同作为训练集t1,剩余绝缘子图像作为测试集t2;
步骤7、构建多层次差异性自适应架构的Inception深度学习网络;
步骤7.1、针对Inception深度学习网络的前五层卷积层,将第2层卷积和第3层卷积组合在一起形成第一组合卷积,并将第4层卷积和第5层卷积组合在一起形成第二组合卷积,由两个组合卷积构建交错组卷积,从而得到改进后的前五层卷积层;
由改进后的前五层卷积层、模块组、全局池化层、全连接层以及h个SCN分类器构成所述Inception深度学习网络;
步骤7.2、定义当前迭代次数为μ,并初始化μ=1;最大迭代次数为μmax;
对所述Inception深度学习网络中各层的参数进行第μ次随机初始化,从而得到第μ次迭代的Inception深度学习网络;
步骤7.3、将所述训练集t1输入所述第μ次迭代的Inception深度学习网络中改进后的前五层卷积层,并输出第μ次迭代的交错特征图集合;
步骤7.4、所述第μ次迭代的交错特征图集合经过所述模块组后输出第μ次迭代的特征图空间,记为表示第μ次迭代的第t个特征图,h为特征图个数,t∈[1,h];
利用式(1)得到第μ次迭代的第t个特征图的可区分性测度指标函数从而得到h个特征图的可区分性测度指标函数
式(1)中,和分别表示第μ次迭代的第t个特征图中含完好绝缘子图像特征和自爆绝缘子图像特征的均值矩阵;表示第μ次迭代中含完好和自爆绝缘子图像的第t个特征图的协方差矩阵;T表示转置;
步骤7.5、获取候选的重构多层面差异化特征图集合:
步骤7.5.1、定义变量Δ,并初始化Δ=1;
步骤7.5.2、假设第μ次迭代的第d1个可区分性测度指标函数所对应的特征图记为则dh个可区分性测度指标函数所对应的特征图记为且将选取区分能力最强的所对应的特征图作为第μ次迭代的第一个候选的特征图子集,令
步骤7.5.3、将第μ次迭代的剩余h-Δ个特征图中的每个特征图分别与进行组合,得到第μ次迭代的h-Δ个候选子集;并利用式(1)计算第μ次迭代的h-Δ个候选子集的可区分性测度指标函数,并将第μ次迭代的h-Δ个可区分性测度指标函数中最大值所对应的候选子集记为
步骤7.5.4、将Δ+1赋值给Δ后,若Δh,则停止迭代,否则返回步骤7.5.3,从而得到第μ次迭代的h个特征图条件下的候选重构多层面差异化特征图集合
步骤7.6、在第μ次迭代的候选重构多层面差异化特征图集合经过所述全局池化层以及所述全连接层的处理后,得到所述训练集t1在第μ次迭代的h个候选重构多层面特征向量集合;
步骤7.7、将第μ次迭代的第Δ个候选重构多层面特征向量输入第Δ个SCN分类器中,从而得到所述训练集t1在第μ次迭代的第Δ个类别,从而得到所述训练集t1在第μ次迭代的h个类别;
步骤7.8、分别计算第μ次迭代的h个类别的误差;
步骤7.9、初始化Δ=1;
步骤7.10、将第Δ个类别的误差与SCN分类器的阈值相比较,若第Δ个类别的误差小于所述阈值,则执行步骤7.11;否则,执行步骤7.12;
步骤7.11、判断第Δ个类别的误差是否为h个类别的误差中的最小值,若是,则表示第Δ个SCN分类器为最优分类器,并输出第μ次迭代的第Δ个类别作为所述训练集t1的分类结果,否则,将Δ+1赋值给Δ后,返回步骤7.10,直到Δh为止;
步骤7.12、将所述第Δ个类别的误差反向传播至所述Inception深度学习网络的输入端,从而更新所述Inception深度学习网络中各层的参数并得到第μ+1次迭代的Inception深度学习网络后,将μ+1赋值给μ,并返回步骤7.3,直到μμmax为止,从而得到第μmax次迭代的Inception深度学习网络;
步骤8、构建测试集t2的基准网络及其分类结果:
步骤8.1、将所述第μmax次迭代的Inception深度学习网络作为测试集t2的基准网络,定义ω为反馈次数;q为动态卷积层总数,并初始化ω=1,q=0;
定义所述测试集t2中任意一幅测试样本的序号为i,且i=1,…,N;N为所述测试集t2中测试样本总数;
步骤8.2、获取一个已学习的Inception网络模型,并利用迁移学习方法获得所述Inception网络模型的参数作为初始值;
步骤8.3、将所述测试集t2中任意第i幅测试样本输入第ω次反馈下,第μmax次迭代的Inception深度学习网络过程中,得到在当前q层动态卷积层下的第i幅测试样本的分类结果,记为ξi,q,ω;
步骤9、构建测试集t2的语义误差熵:
步骤9.1、将所述测试集t2中任意第i幅测试样本输入所述第μmax次迭代的Inception深度学习网络过程中,并经过步骤7.6得到在当前q层动态卷积层和第ω次反馈下的第i幅测试样本的重构多层面特征向量Fci,q,ω;
步骤9.2、采用潜在语义分析法将所述第i幅测试样本的重构多层面特征向量Fci,q,ω映射为语义空间多层面特征向量,记为fci,q,ω=[fci,q,ω,1,fci,q,ω,2,…,fci,q,ω,Δ,…,fci,q,ω,h],为在当前q层动态卷积层和第ω次反馈下的第i幅测试样本中第Δ个特征向量;并将训练集t1中与第i幅测试样本的分类结果ξi,q,ω具有相同类别的ni,q,ω幅绝缘子图像也映射为语义空间多层面特征向量集,记为gci,q,w,x为在当前q层动态卷积层和第ω次反馈下的与第i幅测试样本的分类结果ξi,q,ω具有相同类别的第x维特征向量;且gci,q,w,x=[gci,q,ω,x,1,gci,q,ω,x,2…,gci,q,ω,x,Δ,…,gci,q,ω,x,h];其中,gci,q,ω,x,Δ为在当前q层动态卷积层和第ω次反馈下的第i幅测试样本中第x行第Δ列的特征向量;
将语义空间多层面特征向量fci,q,ω分别与语义空间多层面特征向量集gci,q,w中每行特征向量相减,得到多层面语义误差特征矩阵Di,q,ω,Di,q,ω=[di,q,ω,1,1,…,di,q,ω,1,Δ;di,q,ω,2,1,…,di,q,ω,2,Δ;…;di,q,ω,x,1,…,di,q,ω,x,h],其中,di,q,ω,x,h为多层面语义误差特征矩阵Di,q,ω中第x行第Δ列的特征向量,则利用式(2)得到第i幅测试样本的分类结果ξi,q,ω的语义误差熵Hi,q,ω:
步骤10、构建基于语义误差熵的绝缘子分类结果反馈调节机制:
步骤10.1、判断Hi,q,ω≤T是否成立,若成立,则输出分类结果ξi,q,ω作为第i幅测试样本的最终认知结果;否则继续步骤10.2,其中,T为期望阈值;
步骤10.2、利用式(3)得到动态增加的卷积层数Δq:
式(3)中,σ、τ和为波形控制系数,且τ1,σ=1;
步骤10.3、在所述基准网络中的交错卷积组与模块组之间,动态增加Δq层卷积层,从而将当前动态卷积层总数q更新为q+Δq,并得到更新后的第μmax次迭代的Inception深度学习网络替换原始的第μmax次迭代的Inception深度学习网络后,qmax为最大动态卷积层数,判断q≥qmax是否成立,若成立,则输出第ω反馈认知过程中minHi,q,ω所对应的认知结果ξi,q,ω作为第i幅测试样本的分类结果,否则,将ω更新为ω+1,并返回步骤8.3。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥工业大学,未经合肥工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910441464.9/1.html,转载请声明来源钻瓜专利网。