[发明专利]基于自编码器与YOLO算法的高清图像小目标检测方法有效
申请号: | 202010143805.7 | 申请日: | 2020-03-04 |
公开(公告)号: | CN111126359B | 公开(公告)日: | 2023-03-28 |
发明(设计)人: | 吴宪云;孙力;李云松;王柯俨;刘凯;雷杰;郭杰;苏丽雪;王康;司鹏辉 | 申请(专利权)人: | 西安电子科技大学;南京亿芯亿意信息科技有限公司 |
主分类号: | G06V10/82 | 分类号: | G06V10/82;G06V10/774;G06N3/0455;G06N3/0464;G06N3/048;G06N3/084;G06N3/08 |
代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 王品华;黎汉华 |
地址: | 710071 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 编码器 yolo 算法 图像 目标 检测 方法 | ||
1.一种基于自编码器和YOLO算法的高清图像小目标检测方法,其特征在于,包括如下:
(1)采集高清图像数据形成数据集,并对数据集进行标注,得到正确的标签数据,将数据集和标签数据以8:2的比例划分为训练集和测试集;
(2)将标注好的训练集进行数据扩充;
(3)对于每一幅高清图像数据,根据图像大小和标注信息,生成相应图像的目标Mask数据;
(4)搭建一个包括编码网络和解码网络的全卷积自编码器模型,该编码网络用于对高清图像进行特征提取和数据压缩,该解码网络用于对压缩后的特征图恢复到原始大小;
(5)将高清图像训练集数据送入全卷积自编码器模型中进行训练,得到训练好的全卷积自编码器模型:
(5a)将网络的偏移量初始化为0,并采用kaiming高斯初始化方法对网络的权重参数进行初始化,根据高清图像训练集大小设置自编码器的迭代次数T1;
(5b)定义基于分区域的均方误差损失函数如下:
其中Mask-MSE-Loss(y,y_)为所要计算的损失函数;y为解码器输出图像;y_为输入原始高清图像;α为目标区域的损失惩罚权重,设置为0.9;β为背景区域惩罚权重,设置为0.1;W为自编码器的输入图像尺寸宽度;H为自编码器的输入图像尺寸宽度;Mask(i,j)为(3)中Mask数据第(i,j)位置的值;
(5c)将高清图像训练集数据输入到全卷积自编码网络中,进行前向传播,得到编码后的特征图,再通过解码器对特征图进行恢复;
(5d)使用(5b)定义的基于分区域的均方误差损失函数,计算输入图像与输出图像的损失值;
(5e)使用反向传播算法进行全卷积自编码器的权值和偏移量更新,完成对全卷积自编码器训练的一次迭代;
(5f)重复(5c)~(5e),直到完成所有自编码器的迭代次数T1,得到训练好的全卷积自编码器;
(6)将训练好的全卷积自编码器的编码网络与YOLO-V3检测网络进行拼接,并对拼接后的网络进行训练:
(6a)将训练好的全卷积自编码器的编码网络拼接到YOLO-V3检测网络之前,形成拼接之后的混合网络;
(6b)对拼接后的混合网络进行训练:
(6b1)读取训练好的全卷积自编码器的参数,用读取的参数值初始化编码网络,并设置该编码网络的参数为不可训练的状态;
(6b2)设置YOLO-V3网络的输入图像尺寸与全卷积自编码器网络的输入尺寸相同;
(6b3)从YOLO官网上下载ImageNet数据集上预训练的参数,用该参数对YOLO-V3网络的参数进行初始化,并根据(1)采集的数据集大小设置YOLO-V3网络的迭代次数T2;
(6b4)将高清图像训练集数据送入到拼接后的混合网络中进行正向传播,得到输出检测结果;
(6b5)使用YOLO-V3算法中的损失函数,计算输出检测结果与(1)中标注的正确标签数据之间的损失值;
(6b6)根据损失值大小,使用反向传播算法进行混合网络的权值和偏移量更新,完成对混合网络训练的一次迭代;
(6b7)重复(6b4)~(6b6),直到完成所有YOLO-V3的迭代次数T2,得到训练好的混合网络;
(7)将(1)中的测试集数据输入到训练好的混合模型中,得到最终的检测结果。
2.如权利要求1所述的方法,其特征在于,步骤(2)中所述的将标注好的训练集进行数据扩充,是先对原始数据集中的每一幅高清图像分别做左右翻转、旋转、平移、加噪、亮度调整、对比度调整和饱和度调整的处理,再将经过处理后的图像数据加入到原始数据集中,得到扩充后的数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学;南京亿芯亿意信息科技有限公司,未经西安电子科技大学;南京亿芯亿意信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010143805.7/1.html,转载请声明来源钻瓜专利网。