[发明专利]一种基于深度信息的ATM自助营业厅行为分析方法在审

专利信息
申请号: 201410452648.2 申请日: 2014-09-05
公开(公告)号: CN104268851A 公开(公告)日: 2015-01-07
发明(设计)人: 尚凌辉;高勇;王弘玥;刘家佳;余天明;施展 申请(专利权)人: 浙江捷尚视觉科技股份有限公司
主分类号: G06T7/00 分类号: G06T7/00;G06T7/20;H04N7/18
代理公司: 杭州求是专利事务所有限公司 33200 代理人: 杜军
地址: 311121 浙江省杭州市*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明涉及一种基于深度信息的ATM自助营业厅行为分析方法。现有技术是基于普通二维摄像头的行为分析,存在目标无法准确定位的情况。本发明首先采用双目相机作为深度信息的获取设备,对深度图进行背景建模,学习更新每个像素的混合高斯模型,确定背景分布。其次对每帧新深度图中的每个像素,求其概率值,对前景深度图,利用DENCLUE算法进行聚类分割。最后对每个相机中的每个人体区域中的像素,进行到地面上的投影,利用多相机偏移标定,进行投影后目标的关联,从而在全局坐标系上实现多相机下的目标检测。本发明使用了深度信息,并结合RGB信息的背景建模,使得目标检测的稳定性大为提高,为后续行为分析提供了良好的基础。
搜索关键词: 一种 基于 深度 信息 atm 自助 营业厅 行为 分析 方法
【主权项】:
一种基于深度信息的ATM自助营业厅行为分析方法,以多个吸顶安装、垂直朝地面拍摄的双目相机为采集硬件,在深度信息和彩色信息的基础上,采用了背景建模,目标分割,运动分析,实现对监控区域内人体行为的分析,其特征在于该方法具体包括以下步骤:步骤1:采用双目相机作为深度信息的获取设备,输出为帧率25FPS的CIF分辨率的深度图,深度图中,每个像素的取值范围为0‑255,值越大表示该像素所代表的目标距离镜头越近;步骤2:对深度图进行背景建模,并随着场景的变化,学习更新每个像素的混合高斯模型,确定背景分布,具体是:首先对深度图进行背景建模,用由K个高斯成分组成的混合高斯模型表示像素在时间域上的概率分布模型,即深度图中像素j在t时刻取值为xj的概率为:<mrow><mi>P</mi><mrow><mo>(</mo><msub><mi>x</mi><mi>j</mi></msub><mo>)</mo></mrow><mo>=</mo><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>K</mi></munderover><msubsup><mi>&omega;</mi><mrow><mi>j</mi><mo>,</mo><mi>t</mi></mrow><mi>i</mi></msubsup><mo>&CenterDot;</mo><mi>&eta;</mi><mrow><mo>(</mo><msub><mi>x</mi><mi>j</mi></msub><mo>;</mo><msubsup><mi>&mu;</mi><mrow><mi>j</mi><mo>,</mo><mi>t</mi></mrow><mi>i</mi></msubsup><mo>,</mo><msubsup><mi>&Sigma;</mi><mrow><mi>j</mi><mo>,</mo><mi>t</mi></mrow><mi>i</mi></msubsup><mo>)</mo></mrow></mrow>其中表示在t时刻像素j的混合高斯模型中的第i个高斯成分的权重,表示第i个高斯成分的均值,表示第i个高斯成分的协方差,η表示高斯概率密度函数:<mrow><mi>&eta;</mi><mrow><mo>(</mo><msub><mi>x</mi><mi>j</mi></msub><mo>;</mo><msubsup><mi>&mu;</mi><mrow><mi>j</mi><mo>,</mo><mi>t</mi></mrow><mi>i</mi></msubsup><mo>,</mo><msubsup><mi>&Sigma;</mi><mrow><mi>j</mi><mo>,</mo><mi>t</mi></mrow><mi>i</mi></msubsup><mo>)</mo></mrow><mo>=</mo><mfrac><mn>1</mn><mrow><msup><mrow><mo>(</mo><mn>2</mn><mi>&pi;</mi><mo>)</mo></mrow><mrow><mi>d</mi><mo>/</mo><mn>2</mn></mrow></msup><msup><mrow><mo>|</mo><msubsup><mi>&Sigma;</mi><mrow><mi>j</mi><mo>,</mo><mi>t</mi></mrow><mi>i</mi></msubsup><mo>|</mo></mrow><mrow><mn>1</mn><mo>/</mo><mn>2</mn></mrow></msup></mrow></mfrac><mi>exp</mi><mo>[</mo><mo>-</mo><mfrac><mn>1</mn><mn>2</mn></mfrac><msup><mrow><mo>(</mo><msub><mi>x</mi><mi>j</mi></msub><mo>-</mo><msubsup><mi>&mu;</mi><mrow><mi>j</mi><mo>,</mo><mi>t</mi></mrow><mi>i</mi></msubsup><mo>)</mo></mrow><mi>T</mi></msup><msup><mrow><mo>(</mo><msubsup><mi>&Sigma;</mi><mrow><mi>j</mi><mo>,</mo><mi>t</mi></mrow><mi>i</mi></msubsup><mo>)</mo></mrow><mrow><mo>-</mo><mn>1</mn></mrow></msup><mrow><mo>(</mo><msub><mi>x</mi><mi>j</mi></msub><mo>-</mo><msubsup><mi>&mu;</mi><mrow><mi>j</mi><mo>,</mo><mi>t</mi></mrow><mi>i</mi></msubsup><mo>)</mo></mrow><mo>]</mo></mrow>其中d为xj的维数;然后随着场景的变化,学习更新每个像素的混合高斯模型;最后像素j的混合高斯模型描述了其特征值xj在时间域上的概率分布,为了确定像素的混合高斯模型里哪些高斯成分是由背景产生的,根据每个高斯成分的权重与其标准差之比排序后,取前Bj个高斯成分作为背景的分布,Bj根据下式计算<mrow><msub><mi>B</mi><mi>j</mi></msub><mo>=</mo><mi>arg</mi><msub><mi>min</mi><mi>b</mi></msub><mrow><mo>(</mo><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>b</mi></munderover><msubsup><mi>&omega;</mi><mrow><mi>j</mi><mo>,</mo><mi>t</mi><mo>+</mo><mn>1</mn></mrow><mi>i</mi></msubsup><mo>></mo><mi>M</mi><mo>)</mo></mrow></mrow>阈值M度量了背景高斯成分在像素的整个概率分布中所占得最小比例;步骤3:利用深度图背景模型,进行前景目标检测,即对每帧新深度图中的每个像素,求其在每个背景混合高斯模型中的概率值:<mrow><mi>P</mi><mrow><mo>(</mo><msub><mi>x</mi><mi>j</mi></msub><mo>)</mo></mrow><mo>=</mo><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>K</mi></munderover><msubsup><mi>&omega;</mi><mrow><mi>j</mi><mo>,</mo><mi>t</mi></mrow><mi>i</mi></msubsup><mo>&CenterDot;</mo><mi>&eta;</mi><mrow><mo>(</mo><msub><mi>x</mi><mi>j</mi></msub><mo>;</mo><msubsup><mi>&mu;</mi><mrow><mi>j</mi><mo>,</mo><mi>t</mi></mrow><mi>i</mi></msubsup><mo>,</mo><msubsup><mi>&Sigma;</mi><mrow><mi>j</mi><mo>,</mo><mi>t</mi></mrow><mi>i</mi></msubsup><mo>)</mo></mrow></mrow>若概率最大值小于阈值,则认为当前像素为前景点,说明可能有人体;步骤4:对前景深度图,利用DENCLUE算法进行聚类分割,将原本联通的深度图分割成若干个区域,每个区域代表一个目标;步骤5:对每个相机中的每个人体区域中的像素,利用其深度信息进行到地面上的投影,然后利用多相机偏移标定,进行投影后目标的关联,从而在全局坐标系上实现多相机下的目标检测;步骤6:对于每个相机每帧深度图,重复步骤2‑5的处理,每帧都会得到一组全局坐标系下的目标检测结果,再利用光流预测和面积匹配的方法进行帧间关联,从而得到每个目标在全局坐标系的跟踪轨迹;步骤7:结合ATM区域和跟踪轨迹,实现“取款尾随”、“徘徊”或“驻留”的行为分析;步骤8:对每个目标进行光流场的计算,评价其光流场的混乱程度和速度,实现“打斗”和“打砸ATM”的行为分析;步骤9:对每个目标的历史高度进行统计,形成以时间为x轴,以高度为y轴的波形,在对其进行滤波后,检测波形中是否存在一个下降沿,实现对“倒地”的行为分析。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江捷尚视觉科技股份有限公司,未经浙江捷尚视觉科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201410452648.2/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top