[发明专利]一种基于卷积神经网络和MAML算法的类圆目标检测方法在审
申请号: | 202111001354.4 | 申请日: | 2021-08-30 |
公开(公告)号: | CN113673621A | 公开(公告)日: | 2021-11-19 |
发明(设计)人: | 张盛平;郭佳宇 | 申请(专利权)人: | 哈尔滨工业大学(威海) |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 264209 山*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 maml 算法 目标 检测 方法 | ||
1.一种基于卷积神经网络和MAML算法的类圆目标检测方法,其特征是,包括以下步骤:
收集并标注类圆目标图像数据集;
划分收集的数据集以便进行不同的子任务;
将训练集中的图像进行数据增强;
分别使用大目标检测数据集BO、小目标检测数据集SO、高分辨率检测数据集HR、低分辨率检测数据集LR训练大目标检测模型、小目标检测模型、高分辨率检测模型、低分辨率检测模型;
使用MAML算法学习到最有潜力的类圆检测模型;
将不同的测试样本送入训练好的模型中进行推理得出检测结果。
2.如权利要求1所述的一种基于卷积神经网络和MAML算法的类圆目标检测方法,其特征是,收集并标注类圆目标图像数据集,包括:
通过不同途径收集具有类圆目标的各类图片若干张,其中包括各种体育比赛中的球,人脸,车轮等目标;然后,将收集好的图片统一转换为一种图片格式,比如JPEG、PNG等;最后,对转换后的图片数据中的类圆目标使用圆形框进行标注。
3.如权利要求1所述的一种基于卷积神经网络和MAML算法的类圆目标检测方法,其特征是,划分收集的数据集以便进行不同的子任务,包括:
将标注好的数据集分别划分到大目标检测、小目标检测、高分辨率图像、低分辨率图像四个数据集中,并统计不同数据集中的待检测目标种类个数C1、C2、C3、C4,以便分别进行四个不同的目标检测子任务。
4.如权利要求1所述的一种基于卷积神经网络和MAML算法的类圆目标检测方法,其特征是,将不同子任务中的图像进行数据增强,包括:
对原始图像数据进行翻转、饱和度、亮度、对比度调整、仿射变换、弹性变换、CutMix、Mosaic这八种数据增强,以便提高类圆目标检测模型的检测精度。
5.如权利要求1所述的一种基于卷积神经网络和MAML算法的类圆目标检测方法,其特征是,分别使用大目标检测数据集BO、小目标检测数据集SO、高分辨率检测数据集HR、低分辨率检测数据集LR训练大目标检测模型、小目标检测模型、高分辨率检测模型、低分辨率检测模型,包括:
首先,先对经典的YOLO V4目标检测模型进行调整,将模型结构的最后三个分支的最后一个卷积的输出通道数调整为3*(3+1+C)。其中括号中的3表示该目标检测任务中的标注位置信息圆形框的圆心位置,半径三个参数,1表示置信度参数,C表示数据集类别个数。分别使用数据集BO、SO、HR、LR训练调整结构后的YOLO-V4目标检测网络模型,完成4个不同功能的子任务。
6.如权利要求1所述的一种基于卷积神经网络和MAML算法的类圆目标检测方法,其特征是,使用MAML算法学习到最有潜力的类圆检测模型,包括:
假设调整结构后的模型参数为θ(rx,ry,r,c),主要包括圆形框的圆心坐标位置(rx,ry)、半径r以及置信度c。已知四个子任务Ti(i=1,2,3,4)以及其关联的数据集(Di(train),Di(test)),我们可以通过梯度下降来更新优化后的类圆目标检测模型参数。但这仅仅是对某一项子任务具有比较好的检测效果,为了对各项任务进行良好的概括,我们希望找到最佳的θ*,以便特定于任务的微调更加有效。因此,我们使用MAML元学习算法学习出最具潜力的模型θ*,以便得到比上一步更优的目标检测模型。
7.如权利要求1所述的一种基于卷积神经网络和MAML算法的类圆目标检测方法,其特征是,将不同的测试样本送入训练好的模型中进行推理得出检测结果,包括:
将所有的图像数据合并成一个数据集,重新划分训练集Dtrain和验证集Dval,使用上面学习到的最优参数θ*作为初始权重以及训练集Dtrain重新训练类圆目标检测模型。将不同的测试图像作为输入,使用训练好的类圆目标检测模型进行检测,得到测试图像中目标的位置信息(rx,ry)、尺度信息r以及类别信息C。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学(威海),未经哈尔滨工业大学(威海)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111001354.4/1.html,转载请声明来源钻瓜专利网。