[发明专利]一种基于多任务生成对抗网络的真实场景小物体检测方法有效
申请号: | 201810842331.8 | 申请日: | 2018-07-27 |
公开(公告)号: | CN109145958B | 公开(公告)日: | 2019-11-08 |
发明(设计)人: | 张永强;丁明理;李贤;杨光磊;董娜;朱乐熠;白延成 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04 |
代理公司: | 哈尔滨市阳光惠远知识产权代理有限公司 23211 | 代理人: | 安琪 |
地址: | 150001 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 小物体 任务生成 物体检测 真实场景 检测 网络 对抗 计算机视觉领域 博弈 鉴别器 生成器 正确率 图像 学习 引入 应用 | ||
1.一种基于多任务生成对抗网络的真实场景小物体检测方法,其特征在于,所 述检测方法包括:
步骤一:确定一个训练样本集,并利用所述训练样本集训练一个物体检测器;所述训练样本集中包含多张图像;
步骤二:利用所述物体检测器为多任务生成对抗网络截取产生训练样本;
步骤三:根据所述训练样本构建多任务生成对抗网络训练样本;所述多任务生成对抗网络训练样本中包括正训练样本和负训练样本;
步骤四:将截取产生的训练样本作为高分辨率图像,利用双线性插值法将所述高分辨率图像下采样4倍获得的图像作为相应的低分辨率图像;
步骤五:分别建立以低分辨率图像为输入的生成器网络和以高分辨率图像作为输入的具有分类分支和位置回归分支结构的鉴别器网络;
步骤六:利用所述生成器网络和鉴别器网络并结合步骤四所述正训练样本和负训练样本对多任务生成对抗网络进行训练;所述多任务生成对抗网络训练好后获得小物体检测网络;
步骤七:将待检测图片输入所述小物体检测网络中,所述小物体检测网络根据待检测图片中的小物体图像生成对应的高分辨的物体图像,进而完成真实场景下的小物体检测任务;
所述多任务生成对抗网络的目标函数中引入分类损失函数和位置回归损失函数,所述目标函数的形式如下:
其中,
(x,y)为被截取训练样本左上角的像素坐标,(w,h)表示取向区域的宽和高;θ,ω分别为鉴别器和生成器的网络参数;Dθ,Gω分别是鉴别器和生成器的功能函数,分别是输入的低分辨率图像和对应的高分辨率图像,α是目标函数中对抗损失函数与像素级损失函数的权值分配系数,N是训练样本总数,vi=(vi,x,vi,y,vi,w,vi,h)是物体位置真值信息的回归目标值,ti=(ti,x,ti,y,ti,w,ti,h)是预测的物体位置信息,分别表示第i个高分辨率真值图像和生成的高分辨率图像,当ui≥1时,[ui≥1]等于1,否则等于0,β,γ分别是分类损失函数和位置回归损失函数的权重系数。
2.根据权利要求1所述真实场景小物体检测方法,其特征在于,步骤一所述训练样本集采用Microsoft COCO数据集,并将Microsoft COCO数据集中的115K数据作为训练集样本,将Microsoft COCO数据集中的5K数据作为验证集样本,将Microsoft COCO数据集中的5K数据作为测试集样本;
所述训练样本中的物体图像根据面积大小分为较大、中等和较小三个大小档次,其中较大的物体图像是指面积大于96×96像素的图像;中等的物体图像是指面积大于32×32像素,小于96×96像素的图像;较小的图像是指面积小于32×32像素的图像。
3.根据权利要求1或2所述真实场景小物体检测方法,其特征在于,步骤二所述物体检测器为多任务生成对抗网络截取产生训练样本的具体过程包括:
第一步:利用所述物体检测器对训练样本集中的每一张图像进行物体位置信息预测;
第二步:在每一张进行了物体位置信息预测后的图像中截取600个最有可能包含物体的区域图像;
第三步:将所截取的图像区域进行保存,保存后的区域图像作为所述多任务生成对抗网络的训练样本。
4.根据权利要求1所述真实场景小物体检测方法,其特征在于,步骤三所述多任务生成对抗网络训练样本的构建过程为:
求取所述训练样本中每一个区域图像与图像中标注的物体位置真值的重叠面积,如果所述重叠面积大于0.5则将所述区域图像标记为物体图像;所述物体图像即为正训练样本;如果所述重叠面积小于0.45则将所述区域图像标记为背景图像;所述背景图像即为负训练样本;所述正训练样本和背景图像即为所述多任务生成对抗网络训练样本。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810842331.8/1.html,转载请声明来源钻瓜专利网。