[发明专利]一种密集人群计数检测框架在审
申请号: | 202010418252.1 | 申请日: | 2020-05-18 |
公开(公告)号: | CN111666830A | 公开(公告)日: | 2020-09-15 |
发明(设计)人: | 马天龙;杜响成;吴兴蛟 | 申请(专利权)人: | 华东师范大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 上海蓝迪专利商标事务所(普通合伙) 31215 | 代理人: | 徐筱梅;张翔 |
地址: | 200241 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 密集 人群 计数 检测 框架 | ||
本发明公开了一种密集人群计数的检测框架,其特点是该检测框架包括:特征提取器和四个自上而下的功能调制器,所述特征提取器提取多尺度的特征信息;所述自上而下的功能调制器以特征提取器的输出为基础,多尺度的信息在调制器中被融合并做出更加精确预测。本发明与现有技术相比具有人数统计的准确率高,局部化能力强,能可靠地检测稀疏以及密集人群中的人头,有足够精确的人员定位,尤其是密集人群的巨大多样性,实时性好。
技术领域
本发明涉及人群图像计数技术领域,尤其是一种基于定位和计数的密集人群计数检测框架。
技术背景
从图像或视频中进行人群统计,对于交通控制和公共安全等应用变得至关重要,特别是在公共安全和规划方面。快速分析密集人群是目前最受关注的技术之一。但是,人群图像或视频的自动推理是一个具有挑战性的计算机视觉任务,在密集的人群中,这个任务的难度非常大,通常会缩小到估计人数。
现有技术的计数模型预测图像的人群密度,由于不是检测每个人,这些回归方法无法对除计数之外的大多数应用程序进行足够精确的人员定位,尤其是密集人群的巨大多样性,人数统计的准确率低、实时性差。
发明内容
本发明的目的是针对现有技术的不足而提出的一种密集人群计数检测框架,采用特征提取器和四个自上而下的功能调制器构架的检测框架,将其定位场景中的密集人群,被检测到的每个人头上都有外接框,根据外接框预测密集人群数量,能够可靠地检测稀疏以及密集人群中的人头,基于定位对人群进行统计,做出更加精确预测,有效解决了传统视频计数方法定位和计数无法统一的缺陷,方法简便,统计精度高,实时性好,尤其适合密集人群巨大多样性的人数统计。
实现本发明目的具体技术方案是:一种密集人群计数的检测框架,其特点是该检测框架由图片预处理模块、特征提取器、调制模块和预测模块组成,将检测框架定位场景中的密集人群,被检测到的每个人头上都有外接框,根据外接框对密集人群数量进行精确预测,所述图片预处理模块将输入的图片生成密度图;所述特征提取器采用VGG-16网络的前五个卷积模块对输入的图片在多个尺度上进行特征的提取,生成1/2、1/4、1/8和1/16原分辨率大小的特征图;所述调制模块由四个自上而下的功能调制器组成,对提取的特征图进行融合;所述功能调制器在获取的特征图上采样到相同的尺寸,然后经过卷积操作将特征图调整到相同数量;所述预测模块采用非最大抑制(NMS) 对融合多尺度的特征图从多个分辨率图像上确定有效的预测结果,并结合生成精确预测的结果。
所述五个卷积模块除了第一个和最后一个卷积模块之外,每个模块上的网络分支都要复制下一个模块,并通过这些模块创建多尺度分辨率的特征信息。
所述功能调制器由特征获取模块、特征融合模块、特征分类模块和特征输出模块组成。
所述特征获取模块从特征提取器以及上一个自上而下的功能调制器中提取特征信息,所述特征获取模块从特征提取器中提取一个尺度的特征图,将其通过3×3的卷积层传递;所述特征获取模块从上一个自上而下的功能调制器中提取特征图经转置卷积操作调整到相同数量。
所述特征融合模块采用网络层将人群特征与多尺度的自顶向下特征进行融合。
所述特征输出模块根据特征融合模块提取下一个自上而下的功能调制器所需的特征。
所述特征分类模块为预测模块提供一个输出,它将每个像素分类为背景或到一个预定义的边界框。
本发明与现有技术相比具以下技术效果:
1)提出了一种能够自动学习的分类方法,通过对输入图像尺寸的不同响应,提供不同权重的输出,从而指导得到一种更为准确并且可以不断演进的技术框架。
2)解决了传统视频计数方法定位和计数无法统一的缺陷,效果在公共数据集上(ShanghaiTech Part A,ShanghaiTech Part B,UCF_CC_50, UCF-QNRF)得到了验证。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华东师范大学,未经华东师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010418252.1/2.html,转载请声明来源钻瓜专利网。