[发明专利]一种基于深度神经网络的人数统计方法及存储介质有效
申请号: | 201810420933.4 | 申请日: | 2018-05-04 |
公开(公告)号: | CN108830145B | 公开(公告)日: | 2021-08-24 |
发明(设计)人: | 袁誉乐;曹建民;崔小乐;叶青松 | 申请(专利权)人: | 深圳技术大学(筹) |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06N3/04;G06N3/08 |
代理公司: | 深圳鼎合诚知识产权代理有限公司 44281 | 代理人: | 郭燕;胡佳炜 |
地址: | 518118 广东省深圳市坪山新区*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 神经网络 人数 统计 方法 存储 介质 | ||
一种基于深度神经网络的人数统计方法及存储介质,包括获取待检测图像,根据待检测图像得到背景图像和前景图像,对前景图像进行深度神经网络处理,以统计前景图像中人体关键部位的数量,根据人体关键部位的统计结果比较获得待检测图像中的人数。由于仅对前景图像进行深度神经网络处理来识别图像中的人体关键部位,可避免背景图像的信息干扰作用,省去背景像素点的检测耗时,加快了算法的运算速度。采用标记有人体关键部位的训练数据对构建的深度神经网络进行训练,提高人体关键部位的获取准确性,利于根据多种人体关键部位的数量统计结果比较得到图像中的人数,即使在人体某些部位被遮挡时,也能较好地识别出该人体,从而提高人数统计结果的准确率。
技术领域
本发明涉及图像处理领域,具体涉及一种基于深度神经网络的人数统计方法及存储介质。
背景技术
随着当代社会人口快速增长的作用,由于人群聚集而引起的慌乱情形已经不止一次地发生,监控人群数量和维护社会治安已变得越来越重要,人群数量统计是人群监控的重要研究方向之一,侧重于统计人数,通常要求统计结果能精确到具体人数,统计结果也可作为人群密度估计的影响参数。传统的依靠人力来进行人群监控的方式,容易产生视觉疲劳、容易受到个人主观因素影响,致使统计结果不准确。但随着社会科技的日新月异,特别是机器视觉等技术的发展,使得实时统计图像中人数称为可能。
当前,众多场合对人群数量统计提出了越来越高的要求,比如对博物馆或者著名旅游景点的人数统计以监控并及时处理人群拥挤情形,对车站等公共场所进行人数统计以及时安排疏散安全通道并避免人流过大引起拥堵,对商场的人群统计可以合理地布局商品摆放位置以增加购买度,对广告位前的停留人数进行统计以广告厂商便合理地布局其广告策略,总之,人群数量统计具有广泛的市场需求和应用前景。
近年来,利用计算机视觉技术对监控图像或视频进行人数统计的方法得以实现,可广泛应用在如踩踏预警、交通疏导、商铺人流评估、出勤率统计等项目场景中。然而,现有的人数统计系统对于人群拥挤环境还时常存在较大的统计误差,这是因为在拥挤环境下人群中的个体之间会相互遮挡,导致人体肩膀以下的肢体特征无法被可靠的利用,而仅对头肩部位的肢体特征进行特征提取和定位时,因头肩形状曲线相对简单等因素致使容易发生混淆背景纹理特征的情况,产生大量的漏检或误检问题。
此外,也有采用全卷积网络模型、金字塔图模型、神经网络训练模型来进行人数统计的方式,但是,现有的此类模型需要融合大量的人工特征,设计特征复杂,使用起来步骤繁琐,致使计算量大、输出速度慢,尚不能在实时性要求较高的监控场景中进行应用。
发明内容
本发明主要解决的技术问题是如何克服现有技术的不足,提高人群场景复杂情形下人数统计结果的准确性和实时性。为解决上述问题,本申请提供了一种基于深度神经网络的人数统计方法。
根据第一方面,一种实施例中提供一种基于深度神经网络的人数统计方法,包括以下步骤:
获取待检测图像;
根据所述待检测图像得到背景图像和前景图像;
对所述前景图像进行深度神经网络处理,以统计所述前景图像中人体关键部位的数量;
根据人体关键部位的统计结果比较获得所述待检测图像中的人数。
所述获取待检测图像,包括:获取待监控人群的视频;从所述视频的图像序列中逐一选择一帧图像以作为所述待检测图像。
所述根据所述待检测图像得到背景图像和前景图像,包括:
对所述待检测图像进行区域检测,根据区域检测结果构建背景模型;
判断所述背景模型是否包括所述视频的所有背景信息,所述背景信息为非人物体的图像信息;
若判断结果为是,则将所述背景模型中的所有背景信息作为所述背景图像,所述背景图像包括所述视频中所有非人物体的图像信息;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳技术大学(筹),未经深圳技术大学(筹)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810420933.4/2.html,转载请声明来源钻瓜专利网。