[发明专利]一种基于区域候选的粗精行人检测方法有效
申请号: | 201910535870.1 | 申请日: | 2019-06-20 |
公开(公告)号: | CN110263712B | 公开(公告)日: | 2021-02-23 |
发明(设计)人: | 宋晓宁;周少康;孙俊 | 申请(专利权)人: | 江南大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京禹为知识产权代理事务所(特殊普通合伙) 32272 | 代理人: | 宋华 |
地址: | 214122 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 区域 候选 行人 检测 方法 | ||
本发明公开了一种基于区域候选的粗精行人检测方法,包括粗检测阶段,所述粗检测阶段还包括以下步骤,运用局部无关通道特征方法对粗训练样本的待检测图片进行粗检测;筛选出在所述粗训练样本上漏检掉的标签目标框;对漏检的所述标签目标框进行聚类分析,设置标签尺度与长宽比;利用所述尺度与长宽比训练区域候选网络;图片输入训练好的所述区域候选网络输出的检测结果融合,得到粗检测结果。本发明的有益效果:本发明一是在粗检测阶段通过聚类方法对目标真实结果进行分析,利用区域候选网络进行有针对性的训练,将检测结果与原来的候选框融合,得到更高的召回率,显著地降低了检测结果的漏检率。
技术领域
本发明涉及行人检测的技术领域,尤其涉及一种将粗精表达策略与区域候选网络相结合的行人检测方法。
背景技术
近年来行人检测作为自动驾驶和智能监控的关键技术在计算机视觉研究中得到了特别的关注。行人检测技术的目的是找出图像或视频中存在的行人,既要找出哪里有行人,也要准确地标出行人的大小,这是目标检测方向的经典问题,一般都是用矩形框表示。由于人体具有相当的柔性,因此会有各类姿态和形状,其外观特点受衣服、姿态、角度等影响很大,另外还面临着遮挡、光照等因素的影响,因此,在实际工作中保证稳定高效的检测非常困难,行人检测仍然是现在计算机视觉研究的经典且具有挑战性的难题。
目前存在的技术虽然能够准确地提取行人目标的轮廓和某些纹理特征,但是计算复杂性较高,又或者并未考虑到误检情况,粗精表达只是滤除了多余的误检窗口,原来未检测出来的行人目标无法再检测出来进行分类判别,这就导致原方法漏检的目标仍然被漏检。
发明内容
本部分的目的在于概述本发明的实施例的一些方面以及简要介绍一些较佳实施例。在本部分以及本申请的说明书摘要和发明名称中可能会做些简化或省略以避免使本部分、说明书摘要和发明名称的目的模糊,而这种简化或省略不能用于限制本发明的范围。
鉴于上述现有存在的问题,提出了本发明。
因此,本发明解决的技术问题是:解决行人检测漏检问题和目标尺度差异问题,有效降低行人检测方法的漏检率。
为解决上述技术问题,本发明提供如下技术方案:一种基于区域候选的粗精行人检测方法,包括粗检测阶段,所述粗检测阶段还包括以下步骤,运用局部无关通道特征方法对粗训练样本的待检测图片进行粗检测;筛选出在所述粗训练样本上漏检掉的标签目标框;对漏检的所述标签目标框进行聚类分析,设置标签尺度与长宽比;利用所述尺度与长宽比训练区域候选网络;图片输入训练好的所述区域候选网络输出的检测结果与所述局部无关通道特征方法训练的一分类器输出的粗检测结果进行融合,得到粗检测结果。
作为本发明所述的基于区域候选的粗精行人检测方法的一种优选方案,其中:所述粗检测结果生成包括以下步骤,对所述粗训练样本的行人图像提取不同的特征通道;应用所述局部无关通道特征方法提取特征并训练所述一分类器;通过训练好的所述一分类器对图像进行粗检测,生成粗检测结果。
作为本发明所述的基于区域候选的粗精行人检测方法的一种优选方案,其中:所述区域候选网络通过在卷积操作后生成的特征图,在所述特征图上选取候选区域,且所述区域候选网络通过选接收待检测图片作为输入,输出一系列带有对应得分值的矩形目标候选框。
作为本发明所述的基于区域候选的粗精行人检测方法的一种优选方案,其中:包括以下步骤,所述卷积操作的网络选用VGG-16网络的13个卷积层;输入图片经过卷积层提取特征,利用小型网络在前面得到的特征图上得到不同尺度与比例的滑动窗口,并将窗口都映射到维度更低的特征,包括映射到512维的特征;通过两个全连接层对前面生成的窗口进行有效地分类和回归。
作为本发明所述的基于区域候选的粗精行人检测方法的一种优选方案,其中:所述区域候选网络训练的损失函数定义如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江南大学,未经江南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910535870.1/2.html,转载请声明来源钻瓜专利网。