[发明专利]基于多特征融合和迁移学习的安全护具佩戴检测方法在审
申请号: | 202310091402.6 | 申请日: | 2023-02-03 |
公开(公告)号: | CN116052216A | 公开(公告)日: | 2023-05-02 |
发明(设计)人: | 李佐勇;田庆;林文忠;蔡远征;胡蓉 | 申请(专利权)人: | 闽江学院 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/44;G06V10/762;G06V10/774;G06V10/80;G06V10/82;G06N3/0464 |
代理公司: | 福州元创专利商标代理有限公司 35100 | 代理人: | 陈明鑫;蔡学俊 |
地址: | 350108 福建省*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 特征 融合 迁移 学习 安全 护具 佩戴 检测 方法 | ||
1.一种基于多特征融合和迁移学习的安全护具佩戴检测方法,其特征在于,构建基于YOLOv3的多特征融合模型,用于安全护具佩戴检测;首先,采用数据增强,扩充安全护具训练数据集;其次,在特征提取网络部分引入压缩与激励网络SENet模块,并在YOLOv3输出的三个特征图基础上,增加输出一个小尺度的特征图;最后,为平衡目标样本数量,引入迁移学习策略,提高安全护具佩戴的检测精度。
2.根据权利要求1所述的基于多特征融合和迁移学习的安全护具佩戴检测方法,其特征在于,数据增强方式为:首先调整图片长宽,然后通过随机的翻转来增加图片的数量,另外将数据集图像转到HSV颜色空间,并随机调整其饱和度、对比度以及亮度来生成辅助图像。
3.根据权利要求1所述的基于多特征融合和迁移学习的安全护具佩戴检测方法,其特征在于,安全护具训练数据集得到后,需经过数据处理,然后使用K-means聚类算法,获取12个尺寸的锚框大小,从而得到最合适从小到大的安全护具检测锚框,而后对基于YOLOv3的多特征融合模型进行迭代训练。
4.根据权利要求1所述的基于多特征融合和迁移学习的安全护具佩戴检测方法,其特征在于,基于YOLOv3的多特征融合模型由Backbone特征提取网络、Neck特征融合模块、Head检测头构成;其中,Backbone特征提取网络中加入注意力机制并且融合SE注意力机制残差模块;Neck特征融合模块在Backbone特征提取网络提取的三个尺度输出,额外多一个尺度来进行检测;原始图像输入网络后,经过Backbone特征提取网络提取训练集图片特征,再到Neck特征融合模块融合数据以及Head检测头,分别进行4倍、8倍、16倍和32倍的下采样操作得到不同尺度的特征图。
5.根据权利要求1所述的基于多特征融合和迁移学习的安全护具佩戴检测方法,其特征在于,所述迁移学习策略,即使用预训练模型的网络权值参数进行训练,预训练模型为YOLOv3在PascalVOC数据集上训练后的权值文件;首先冻结前50个Epoch的Backbone特征提取网络权重参数,并且以较大的学习率对模型其余权重参数进行训练,最后在后面50个Epoch动态的降低网络的学习速率对模型所有的权重参数进行微调。
6.根据权利要求1所述的基于多特征融合和迁移学习的安全护具佩戴检测方法,其特征在于,该方法采用损失函数用于衡量深度学习网络输出预测结果和目标期望结果之前关系的重要指标,包括三部分:位置损失Lloc、置信度损失Lconf和分类损失Lcls;如式(1)所示,
floss=λ1Lloc+Lconf+λ2Lcls(1)
式中,λ1、λ2是损失权重参数分别取0.05和0.5,采用CIoU损失函数进行计算位置损失如式(2)所示,该损失函数加入包括预测框与真实框重叠率、中心距离的惩罚项;CIoU的计算式为:
式中,IoU为预测框和真实框之间的重叠区域与预测框和真实框所包含的总区域的比值;b、bgt分别表示预测框和真实框的中心点坐标;ρ2(b,bgt)和c分别表示预测框和真实框的中心点之间的欧式距离和最小区域的对角线距离;权重值α和度量长宽比相似性v的计算式分别如式(3)、(4)所示:
式中,wgt、hgt、w、h分别表示真实框的宽高和预测框的宽高,位置损失Lloc则表示为:
Lloc=1-CIoU(5)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于闽江学院,未经闽江学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310091402.6/1.html,转载请声明来源钻瓜专利网。