[发明专利]一种基于双区域学习的地铁站场景行人计数实现方法有效

专利信息
申请号: 201610015229.1 申请日: 2016-01-11
公开(公告)号: CN105678268B 公开(公告)日: 2020-06-30
发明(设计)人: 何高奇;袁玉波;陈琪;江东旭;阮丹薇 申请(专利权)人: 华东理工大学
主分类号: G06K9/00 分类号: G06K9/00;G06T7/11
代理公司: 暂无信息 代理人: 暂无信息
地址: 200237 *** 国省代码: 上海;31
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种基于双区域学习的地铁站场景行人计数方法。所述方法的创新之处在于:(1)基于高斯混合模型的地铁视频前景提取方法,针对视频的每一帧,提取得到视频行人群体的有效计算区域;(2)地铁监控视频的双区域划分方法,将视频的每一帧划分为远视角和近视角;(3)基于超强学习机(ELM)的远视角行人估计方法,通过对远视角区域提取全局场景特征,使用ELM和高斯过程回归模型建立行人数量估计模型;(4)基于聚集信道特征(ACF)的近视角区域行人数量估计方法。本发明的输入是地铁站中单个监控摄像头采集的视频数据,输出是对视频数据流中每一帧计算得到的行人数量。本方法的优点在于计数结果的准确性和实时性。
搜索关键词: 一种 基于 区域 学习 地铁 场景 行人 计数 实现 方法
【主权项】:
一种基于双区域学习的地铁站场景行人计数方法,其特征在于对地铁站监控视频进行行人计数时进行以下步骤:步骤1,使用区域分割技术将图像分割成近视角和远视角两个区域。步骤2,在近视角区域中行人个体特征较为明显。因此在此区域使用ACF(聚集信道特征)行人检测方法,以行人头部和肩部的组合特征来检测近视角区域中的行人。步骤3,基于步骤2的检测结果,计算近视角区域中的行人数量。步骤4,在远视角区域中,行人特征较为模糊。所以在此区域中使用数量估计的方法,对于图片中的远视角区域提取全局场景特征,该场景特征包括三类:前景特征,角点特征和纹理特征。步骤5,基于步骤4提取的三类全局场景特征,构建远视角区域的特征向量V=(前景特征,角点特征,纹理特征)。通过ELM和高斯过程回归方法训练行人数量估计模型;以V作为输入,来估计远视角区域的行人数量。步骤6,将步骤3和步骤5获取的行人数量相加,最终获得整个场景中的行人数量。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华东理工大学,未经华东理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201610015229.1/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code