[发明专利]定位精准的单阶段实时通用目标检测器及方法有效
申请号: | 201911179354.6 | 申请日: | 2019-11-27 |
公开(公告)号: | CN111046928B | 公开(公告)日: | 2023-05-23 |
发明(设计)人: | 沈耀;龚桂;过敏意;陈全;姚斌 | 申请(专利权)人: | 上海交通大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/77;G06V10/75;G06V10/82;G06N5/04;G06N3/045;G06N3/084;G06N3/0464;G06N3/048 |
代理公司: | 上海交达专利事务所 31201 | 代理人: | 王毓理;王锡麟 |
地址: | 200240 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 定位 精准 阶段 实时 通用 目标 检测器 方法 | ||
一种定位更精准的单阶段实时通用目标检测器及方法,包括:检测骨干网络模块、特征增强模块和回归框重叠度引导训练及推理模块,特征增强模块使各层特征语义以及局部信息更丰富,取得更好的预测结果;对于大量的重叠框,通过将分类置信度与回归框定位置信度相乘,对分类置信度高而回归不精确的框进行更多的衰减,尽可能保留更精准的预测框。同时重叠度引导的交叉熵损失在训练中提高分类回归任务的相关性,抑制低质量预测结果,提升检测效果。
技术领域
本发明涉及的是一种目标检测领域的技术,具体是一种定位更精准的、精度更高的单阶段实时通用目标检测器及方法。
背景技术
目标检测是对于某些指定图像中存在的来自给定类别(如人类、汽车、自行车、狗和猫)的任何对象实例,返回其的空间位置和类别。作为图像理解和计算机视觉的基础,目标检测是解决更复杂或更高层次视觉任务的先决条件,能够广泛应用于人工智能和信息技术。现有的实时单阶段目标检测器虽然在速度上具有优势,但在骨干网络特征提取过程中,随着语义信息的逐层提取,局部细节信息逐渐丢失,导致网络中的深层特征虽然具有更多适用于大物体识别的语义信息但细节信息丢失过多不利于大物体定位,而浅层低级特征更局部化,特征语义信息不足不利于小物体分类,因此基础特征金字塔各层信息对后续分类回归任务并不充分,导致预测定位效果不佳;目标检测的后处理采用非最大抑制算法对预测框进行处理,防止预测结果包含重复框,在非最大抑制算法的过程中,保留分类置信度最高的框,去除与该框重叠度大于阈值的结果,但这会造成更精确的预测框因为分类置信度不是最高而被剔除,此外,由于训练标签提前决定,在训练中存在部分回归不好的正样本强制分类为前景,造成分类回归任务的不一致性,产生许多低质量回归框,导致预测效果不佳。
发明内容
本发明针对现有技术存在的上述不足,提出一种定位更精准的单阶段实时通用目标检测器及方法,能够在保证推理速度实时的条件下,提高模型的准确度。
本发明是通过以下技术方案实现的:
本发明涉及一种定位更精准的单阶段实时通用目标检测器,包括:检测骨干网络模块、特征增强模块和回归框重叠度引导训练及推理模块,其中:检测骨干网络模块产生合理感受野分布的基础特征金字塔。特征增强模块将原始特征进行增强,其基于分离残差思想,使用不同空洞大小的空洞卷积转换来获得更多更大尺度的感受野扩充,同时对各层特征缺失的信息进行补充。回归框重叠度引导的训练及推理模块设计了新的基于log函数的预测框重叠度回归损失以及基于重叠度引导的交叉熵分类损失,二者在训练阶段进行反向传播以更新梯度,并在推理阶段使用预测的回归框重叠度指导非最大抑制方法,从而以提升检测精度。
本发明涉及上述目标检测器的检测方法,其具体步骤如下:
1)训练网络;
1.1)输入批量图片进行预处理,具体包括:随机色彩空间变换、随机图片物体缩小、随机裁剪、随机方法缩放图片成输入尺寸、随机水平翻转、向量化、中心化和标准化;
1.2)将预处理后的图片输入检测骨干网络模块得到基础特征金字塔;
1.3)运用逐级感受野扩充单元对基础特征金字塔各层进行感受野范围扩大;
1.4)运用双向FPN补充步骤1.3)得到的特征所缺失的信息;
1.6)回归框重叠度引导的训练及推理模块计算训练损失并反向传播更新梯度;
2)优化推理;
2.1)输入测试图片并进行预处理,具体包括:缩放图片成输入尺寸、向量化、中心化和标准化;
2.2)将预处理后的图片传输至目标检测器中得到预测结果;
2.3)预测结果中的分类置信度与定位置信度相乘以指导非最大抑制算法去重。
技术效果
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海交通大学,未经上海交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911179354.6/2.html,转载请声明来源钻瓜专利网。