[发明专利]一种基于感受野感知的无锚点框目标检测方法在审
申请号: | 202110280998.5 | 申请日: | 2021-03-16 |
公开(公告)号: | CN113033638A | 公开(公告)日: | 2021-06-25 |
发明(设计)人: | 张弘;李旭亮;李亚伟 | 申请(专利权)人: | 苏州海宸威视智能科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 215316 江苏省苏州市昆*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 感受 感知 无锚点框 目标 检测 方法 | ||
本发明公开了一种基于感受野感知的无锚点框目标检测方法,将感受野作为锚点框,具有由23个卷积层构成并且分为三大检测单元的网络;所述三大检测单元分别为小尺度目标检测单元、中等尺度目标检测单元和大尺寸目标检测单元;每一个单元根据感受野大小选择两个分支进行分类与回归操作,共可以获得6个检测分支,每两个分支负责对不同尺度的各自单元目标进行检测;其中,分类分支用于确定所检测的目标是否为所需要的目标,回归分支用于获取目标框的位坐标信息。这种基于感受野感知的无锚点框目标检测方法舍弃了传统的锚点框引入,整体结构简单,无多余分支,相比较传统的SSD以及FasterRCNN方法,在检测进度和检测速度上都有明显的优势。
技术领域
本发明涉及视频图像处理领域,尤其涉及一种基于感受野感知的无锚点框目标检测方法。
背景技术
目标检测技术在计算机视觉领域中是一项非常具有研究意义的课题,其主要任务是预测物体的位置以及种类。
目前,主流的经典检测模型无论是单阶段的检测模型,如SSD,YOLO目标检测算法,还是两阶段的检测模型,如Faster R-CNN等,都是基于一系列预先设置好超参数的锚点框,通过在不同特征层上设置不同的尺度的锚点框,实现更高的概率出现对于目标物体有良好匹配度的目标框。
但是,基于锚点框设置的目标检测方法却有面临着以下挑战:1.锚点框的尺度设计无法完全覆盖所有的目标检测物体,每遇到一个全新的数据集都需要根据数据集的特点重新设置锚点框的数量和纵横比,限制了检测模型的通用性和鲁棒性;2.将锚点框与真实框进行匹配是依赖于IoU参数的设置决定的,其阈值往往是依据经验设定;3.根据针对不同尺寸的目标检测物体设置的锚点框的数量,往往会增加冗余计算,计算耗时等等;4.过多设置的锚点框在实际处理中会被标注为负样本,增加了正负样本数量上的不均衡,影响分类器的训练。
发明内容
本发明所要解决的技术问题是,提供一种基于感受野感知的无锚点框目标检测方法,其舍弃了传统的锚点框引入,整体结构更简单,无多余分支,检测进度和检测速度更为明显。
为了解决上述技术问题,本发明是通过以下技术方案实现的:一种基于感受野感知的无锚点框目标检测方法,将感受野作为锚点框,具有由23个卷积层构成并且分为三大检测单元的网络;所述三大检测单元分别为小尺度目标检测单元、中等尺度目标检测单元和大尺寸目标检测单元;每一个单元根据感受野大小选择两个分支进行分类与回归操作,共可以获得6个检测分支,每两个分支负责对不同尺度的各自单元目标进行检测;其中,分类分支用于确定所检测的目标是否为所需要的目标,回归分支用于获取目标框的位坐标信息。
进一步地,所述网络总体由3×3卷积核、1×1卷积核、ReLu激活函数以及残差边连接构成。
进一步地,所述感受野的计算公式如下:
其中,lk-1为第k-1层对应的感受野大小,fk为第k层的卷积核大小;根据上述公式可以得到所提出的检测框架各个卷积层对应的感受野大小,通过数据增广方法增加光噪声、更改亮度对比度,随机水平翻转,其中以0.5的概率对子图进行随机翻转,通过损失函数根据损失值对负样本排序,以正负样本1:10的比例选取排名靠前的负样本。
进一步地,所述损失函数是分类损失和回归损失的加权和。
进一步地,所述分类损失采用交叉熵损失,所述交叉熵损失函数公式如下:
其中,H为交叉熵的计算值,即损失的计算值;p为真实概率分布,即分类函数的预测概率值;q为非真实概率分布,即分类函数的预测概率值的补集;i为每一个类别的下标。
进一步地,所述回归损失采用Smooth L1损失函数,其公式如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州海宸威视智能科技有限公司,未经苏州海宸威视智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110280998.5/2.html,转载请声明来源钻瓜专利网。