[发明专利]一种基于双区域学习的地铁站场景行人计数实现方法有效
申请号: | 201610015229.1 | 申请日: | 2016-01-11 |
公开(公告)号: | CN105678268B | 公开(公告)日: | 2020-06-30 |
发明(设计)人: | 何高奇;袁玉波;陈琪;江东旭;阮丹薇 | 申请(专利权)人: | 华东理工大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06T7/11 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 200237 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于双区域学习的地铁站场景行人计数方法。所述方法的创新之处在于:(1)基于高斯混合模型的地铁视频前景提取方法,针对视频的每一帧,提取得到视频行人群体的有效计算区域;(2)地铁监控视频的双区域划分方法,将视频的每一帧划分为远视角和近视角;(3)基于超强学习机(ELM)的远视角行人估计方法,通过对远视角区域提取全局场景特征,使用ELM和高斯过程回归模型建立行人数量估计模型;(4)基于聚集信道特征(ACF)的近视角区域行人数量估计方法。本发明的输入是地铁站中单个监控摄像头采集的视频数据,输出是对视频数据流中每一帧计算得到的行人数量。本方法的优点在于计数结果的准确性和实时性。 | ||
搜索关键词: | 一种 基于 区域 学习 地铁 场景 行人 计数 实现 方法 | ||
【主权项】:
一种基于双区域学习的地铁站场景行人计数方法,其特征在于对地铁站监控视频进行行人计数时进行以下步骤:步骤1,使用区域分割技术将图像分割成近视角和远视角两个区域。步骤2,在近视角区域中行人个体特征较为明显。因此在此区域使用ACF(聚集信道特征)行人检测方法,以行人头部和肩部的组合特征来检测近视角区域中的行人。步骤3,基于步骤2的检测结果,计算近视角区域中的行人数量。步骤4,在远视角区域中,行人特征较为模糊。所以在此区域中使用数量估计的方法,对于图片中的远视角区域提取全局场景特征,该场景特征包括三类:前景特征,角点特征和纹理特征。步骤5,基于步骤4提取的三类全局场景特征,构建远视角区域的特征向量V=(前景特征,角点特征,纹理特征)。通过ELM和高斯过程回归方法训练行人数量估计模型;以V作为输入,来估计远视角区域的行人数量。步骤6,将步骤3和步骤5获取的行人数量相加,最终获得整个场景中的行人数量。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华东理工大学,未经华东理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610015229.1/,转载请声明来源钻瓜专利网。
- 上一篇:基于图像检测的面部支付平台
- 下一篇:一种能够自主作业的隧道地质监控装置