[发明专利]一种基于退化先验的水下目标检测方法在审
申请号: | 202011560980.2 | 申请日: | 2020-12-25 |
公开(公告)号: | CN112597906A | 公开(公告)日: | 2021-04-02 |
发明(设计)人: | 钱晓琪;刘伟峰;李建宁;杨豪杰 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06T5/50;G06T7/55 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 朱亚冠 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 退化 先验 水下 目标 检测 方法 | ||
1.一种基于退化先验的水下目标检测方法,其特征在于,该方法具体是:
步骤(1)搜集整理图像数据;
图像数据包括:多张真实水下图像;PASCAL VOC07通用目标检测数据集;水下目标检测数据集,并且标注目标物类别和坐标信息;
步骤(2)估计光照;
(2.1)将每张真实水下图像下采样至n×n大小的图像;
(2.2)下采样后的图像选择n′×n′的滑窗,计算每个滑窗内三个通道的像素最大值,得到光照向量A:A=[max(R(Ω)),max(G(Ω)),max(B(Ω))];其中,R、G、B表示图像的三个通道,Ω表示滑窗覆盖的区域;
(2.3)归一化处理,得到光照向量A的估计光照向量集合A*;
步骤(3)采用单目估计方法估计得到PASCAL VOC07通用目标检测数据集中所有图像的深度图,并用导向滤波优化;
步骤(4)将PASCAL VOC07通用目标检测数据集中的每张图像合成为水下图像:
(4.1)选出待合成图像对应的深度图;
(4.2)从估计光照向量集合A*中随机选取一个光照向量A;
(4.3)合成水下图像:其中,I表示合成的水下图像,c表示图像的三个通道,i表示像素位置;J表示PASCAL VOC07通用目标检测数据集中的图像,d为与之对应的深度图;β是光照衰减系数;
步骤(5)构建特征增强模块;
特征增强模块由三个结构相同的空间通道注意力残差块构成;每个空间通道注意力残差块具体结构为一个3×3卷积层后紧跟两个分支和一个空间注意力机制;
第一分支是一个通道注意力机制,由全局平均池化层、1×1卷积层、1×1卷积层、非线性激活层顺序连接而成;
第二分支是一个3×3卷积层;
空间注意力机制由3×3卷积层、非线性激活层顺序连接而成;
两个分支的输出相乘后输入空间注意力机制,第二分支的输出和空间注意力机制的输出相乘后再和空间通道注意力残差块的输入相加,作为空间通道注意力残差块的输出;
步骤(6)训练特征增强模块:
首先将检测任务主干网络浅层部分与特征增强模块连接,并固定检测任务主干网络浅层部分的参数;然后使用PASCAL VOC07通用目标检测数据集的验证集部分和与之对应的合成水下图像进行训练;
训练时,PASCAL VOC07通用目标检测数据集的图像经过检测任务主干网络浅层部分,得到清晰特征yGT;与之对应的合成水下图像经过检测任务主干网络浅层部分和特征增强模块后得到增强特征y;
训练使用的损失函数为包含均方误差和平均绝对误差的混合损失函数Loss,训练完毕后保存得到的参数;
步骤(7)在合成水下图像上训练检测任务主干网络,将训练得到的特征增强模块嵌入训练后的检测任务主干网络,固定检测任务主干网络浅层部分的参数和特征增强模块的参数,只更新检测任务主干网络中特征增强模块后面部分的主干网络参数;
训练检测任务主干网络使用的损失函数包含分类损失和坐标损失两部分;
保存训练后检测任务主干网络的所有参数;
步骤(8)在水下目标检测数据集上微调检测任务主干网络;
将在合成水下图像上训练得到的检测任务主干网络,在目标检测数据集上进行微调训练;微调时,固定检测任务主干网络浅层部分的参数和特征增强模块的参数,只更新检测任务主干网络中特征增强模块后面部分的主干网络参数;
保存训练后检测任务主干网络的所有参数;
步骤(9)将训练后检测任务主干网络的参数加载到对应的目标检测主干网络中,然后输入待检测的图像,主干网络即输出待检测目标物的坐标和类别信息。
2.如权利要求1所述的一种基于退化先验的水下目标检测方法,其特征在于:图像数据包括100~200张真实水下图像。
3.如权利要求1所述的一种基于退化先验的水下目标检测方法,其特征在于:步骤(2)下采样图像大小中n=50~100,滑窗大小中n′=5~10。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011560980.2/1.html,转载请声明来源钻瓜专利网。