[发明专利]基于全局区域先验注意力的目标检测方法有效
申请号: | 202011365545.4 | 申请日: | 2020-11-28 |
公开(公告)号: | CN112381106B | 公开(公告)日: | 2022-09-09 |
发明(设计)人: | 吴泽彬;龚航;徐伟;赵朝蓬;刘建新;陈圣堂;徐洋;陈刚;夏雷;顾涛;丁道华;晁京 | 申请(专利权)人: | 南京理工大学;中国铁路上海局集团有限公司南京供电段 |
主分类号: | G06V10/44 | 分类号: | G06V10/44;G06V10/82;G06N3/04;G06N3/08;G06T3/40 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 陈鹏 |
地址: | 210094 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 全局 区域 先验 注意力 目标 检测 方法 | ||
本发明公开了一种基于全局区域先验注意力机制的目标检测方法,包括如下步骤:遍历所有训练样本,统计目标出现在图像中的频率,得到全局先验注意力;获取待检测图像,利用训练得到的特征提取网络对图像进行特征提取,同时利用卷积神经网络提取自适应注意力,对全局先验注意力进行修正与增强得到自适应全局先验注意力,使用自适应全局先验注意力增强特征图;最后再进行目标检测。本方法提出了全局区域先验注意力机制网络,提升了训练收敛速度,在保证检测速度的同时提高了目标检测精度,在目标种类少出现在特定位置的目标检测应用场景中提升更加明显。
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于全局区域先验注意力的目标检测方法
背景技术
近年来,计算机视觉在各个领域得到了广泛的应用,解放了社会生产力。目标检测是计算机视觉中一项十分重要的任务。随着深度深学习的发展,目标检测得到了广泛的研究,促进了计算机视觉在各个领域的应用。目标检测能够标记处图像或者视频中我们想要检测的目标位置与类别。这一功能能够扩展为许多实际应用,例如:自动驾驶、行人追踪、文本识别等。
基于传统方法的目标检测技术存在速度慢、精度低等劣势。随着深度学习技术与计算机硬件技术的发展,基于深度学习的目标检测技术得到了长足的发展,使得精度与速度都有了质的提升,达到了实际使用的速度与精度。但是目前的目标检测方法在较困难场景中的目标检测仍然有较大的提升空间。
人类眼球中只有视网膜中央凹存在高密度的视锥细胞,人类为了更好的感知环境,会将感兴趣区域集中到视网膜中央凹。计算机视觉注意力由此诞生。近年来,有学者使用注意力模型对目标检测中的特征提取网络进行增强。普通的目标检测与有如下难点:1)特征提取时对背景与目标同等对待,难以突出待检测目标的特征;2)普通注意力模型难以保证注意力的正确性;3)对于小目标难以检测。因此普通的注意力模型与目标检测的结合有其局限性。
通过上述描述,如何准确地得到注意力掩膜来更好地进行特征提取是亟待解决的问题。
发明内容
本发明的目的在于提供一种基于全局区域先验注意力的目标检测方法,提高注意力掩膜的准确度,最终提高目标检测的精度。
实现本发明目的的技术解决方案为:一种基于全局区域先验注意力的目标检测方法,包括如下步骤:
步骤(A),遍历训练集,统计每个训练样本中目标出现的位置信息,得到全局区域先验注意力;
步骤(B),获取待检测图像,利用训练得到的特征提取网络对原图进行特征提取;
步骤(C),从主干网络中分支出自适应注意力网络分支,利用自适应注意力网络对全局区域先验注意力进行修正与增强,得到自适应全局区域先验注意力掩膜;将注意力掩膜点乘到特征图上,然后对特征图进行目标检测。
进一步的,步骤(A),遍历训练集,统计每个训练样本中目标出现的位置信息,得到全局区域先验注意力,包括如下步骤:
(A1),在训练样本图片中人工框选出目标所在的区域,获取训练样本图片中目标所在的目标区域的位置信息作为标签保存;
(A2),将训练样本图片与全局区域先验注意力缩放至所设定的尺寸;
(A3),初始化全局区域先验注意力每个值为零,遍历训练样本,将全局区域先验注意力中所有与训练样本图片的标签中所划定的区域同一位置的像素的像素值加1,得到全局区域先验注意力;
(A4),使用sigmoid函数对全局区域先验注意力进行归一化,得到全局区域先验注意力。
进一步的,所述步骤(C)包括如下步骤:
(C1),从主干特征提取网络中的特征中提取特征作为全局区域先验注意力修正增强网络的输入;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学;中国铁路上海局集团有限公司南京供电段,未经南京理工大学;中国铁路上海局集团有限公司南京供电段许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011365545.4/2.html,转载请声明来源钻瓜专利网。