[发明专利]一种现实场景的人群计数方法在审
申请号: | 202010487567.1 | 申请日: | 2020-06-02 |
公开(公告)号: | CN111753671A | 公开(公告)日: | 2020-10-09 |
发明(设计)人: | 杨静;石晓雯 | 申请(专利权)人: | 华东师范大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 上海蓝迪专利商标事务所(普通合伙) 31215 | 代理人: | 徐筱梅;张翔 |
地址: | 200241 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 现实 场景 人群 计数 方法 | ||
本发明公开了一种现实场景的人群计数方法,其特点是采用几何高斯自适应核函数生成真实的人群密度图作为真实值指导训练,将人群图像输入局部感受野的卷积操作中,将产生不同尺度自适应的特征图融合后输入深度神经网络模型,将获取的估计密度图通过回归求解和积分法得到场景内的人数。本发明与现有技术相比具有方法简便,实时性强,人数统计的准确率高的优点,能够采用一种轻量级的网络结构快速获得高质量的人群密度图,且不会损失过多的统计精度,模型参数占用的内存空间小,尤其适合考勤系统、人群监测系统等各类实时性要求高的场景应用。
技术领域
本发明涉及人群图像计数技术领域,尤其是一种基于密度图估计的现实场景的人群计数方法。
背景技术
人群计数(Crowd counting)任务的目标是估计出监控视频或照片中人的数量。单张照片的人群计数对于交通管理、灾难预警和公共区域管理等领域都有着至关重要的意义。除此之外,该技术还可应用于细胞显微镜、车辆计数等其他研究领域。人群计数由于其广泛的应用,是计算机视觉和智能视频监控领域的一个重要研究领域,近年来,计算机视觉研究界和私营企业也都对其进行了大量的关注。与其他任何计算机视觉问题一样,人群分析也面临着许多挑战,如闭塞、高杂波、人的不均匀分布、不均匀照明、场景内和场景间的外观、尺度和视角变化等,使得问题变得极其复杂,以导致人数统计的准确率下降等问题。随着深度学习发展的火热,卷积神经网络在图像处理中得到了飞速发展,通过设计精密的神经网络结构,用于高密度场景下的人群数目估计,人群计数的算法性能在与深度学习的结合下得到了很大的提升。
现有技术的人群计数方法存在着人数统计的准确率低、实时性差、模型参数众多占用内存空间大以及很难应用于现实场景中等困难。
发明内容
本发明的目的是针对现有技术的不足而提出的一种可应用于现实场景的人群计数方法,采用几何高斯自适应核函数生成真实的人群密度图作为真实值指导训练,将人群图像输入到拥有三个不同尺寸的局部感受野的卷积操作中,将产生不同尺度自适应的特征图融合,喂进深度神经网络模型中获取估计密度图,并进行回归问题的求解,最终通过整合算法从密度图中得到准确的人群数量,使得给出一张待计数图片,能自动的统计出图片中的人数,方法简便,人数统计的准确率高,实时性差好,模型参数占用的内存空间小,尤其适合考勤系统、人群监测系统等各类实时性要求高的场景应用。
实现本发明目的具体技术方案是:一种现实场景的人群计数方法,其特点是采用几何高斯自适应核函数生成真实的人群密度图作为真实值指导训练,将人群图像输入局部感受野的卷积操作中,将产生不同尺度自适应的特征图融合后输入深度神经网络模型,将获取的估计密度图通过回归求解和整合算法得到准确的人群数量,具体包括以下步骤:
步骤一:通过几何高斯自适应核函数生成真实的人群密度图;
步骤二:通过三个不同尺寸卷积核对人群图像做卷积操作,将得到的三类特征图进行融合并输入到后续的神经网络中做回归;
步骤三:将模型输出的密度图估计值采用积分法,得到现实场景内的人数。
所述步骤二中的回归模型在其第一层卷积操作中,采用了三个不同尺寸大小的感受野来捕捉图片中人头的尺度变化,之后将获得的特征图直接融合,完成对于图像中多尺度人头的适应。步骤二中的处理算法可以很大程度上减少模型的参数量,使得各类局限在有限设备上的系统很容易地去调用。
本发明与现有技术相比具有以下优点:
1)方法简便,实时性强,人数统计的准确率高。
2)有效性,相对于其他基于深度神经网络的方法,本发明能够采用一种轻量级的网络结构快速获得高质量的人群密度图,且不会损失过多的统计精度。
3)简单性,数据主要通过现有的公开数据集得到,其余的模型训练过程由于参数量小并不需要占用计算机过多的内存以及GPU资源,且容易通过OpenCV实现。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华东师范大学,未经华东师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010487567.1/2.html,转载请声明来源钻瓜专利网。