[发明专利]一种用于人体重现检测的人体表观模型的学习方法及系统有效
申请号: | 201210078068.2 | 申请日: | 2012-03-22 |
公开(公告)号: | CN103324907A | 公开(公告)日: | 2013-09-25 |
发明(设计)人: | 王亮;李浩;常虹;曾炜;山世光;陈熙霖 | 申请(专利权)人: | 中国科学院计算技术研究所;日电(中国)有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京律诚同业知识产权代理有限公司 11006 | 代理人: | 祁建国 |
地址: | 100080 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 人体 重现 检测 表观 模型 学习方法 系统 | ||
技术领域
本发明属于模式识别和计算机视觉领域,特别是一种用于人体重现检测的人体表观模型的学习系统及方法。
背景技术
所谓人体重现检测,就是给定一个人某一时刻在一个摄像机下的图像帧(带有该人的人体检测窗口),寻找所有其他时刻在当前摄像机或其他摄像机下该人出现过的图像帧/序列。人体重现检测可以通过提取当前观察人体的表观模型,以模型比对的方式从其它时刻在相同或不同摄像机捕获的图像帧中寻找能够很好的匹配该表观模型的人来完成。由于人体重现检测系统通常面临着人体姿态、视角、光照等多种因素变化的影响,以及多人遮挡、饰物佩戴(如帽子、背包)等众多实际问题,因此如何建立一个鲁棒的人体表观模型,是人体重现系统中的重要步骤。
其中,特征提取和分类器的设计是表观建模的两个核心问题。传统的人体特征提取方法主要有,全局颜色直方图、最大颜色稳定区域特征、梯度直方图、和Bag-of-words等,且均属于底层语义特征表示方法。通常,同一个人体在不同视角下的表观特征会有所不同,例如当一个人携带背包时,正面和背面会有较大的差异。而底层特征表示受视角影响很大,不同视角下人体的颜色、梯度等分布通常差异极大,因此直接通过计算特征之间的相似度来判断几个人体检测结果是否是同一个人通常都不准确。基于此,提取更加鲁棒高层语义特征,如背包、帽子、人体性别等属性特称成为特征提取的一个重要的解决方案。
在分类器设计方面,出于系统实际应用需要,需要动态的记录和更新场景中活动的人体,分类器的学习应该是一个在线学习的过程。传统的方法通常找一些背景部分作为反例样本,这使得学习到的表观模型在区分不同人体方面,能力较弱。根据人体表观模型的差异,设计有效的策略来在线选择正例和反例训练样本,是提高在线学习分类器在每一个时刻分类准确度的关键因素。由于视频数据具有显著的时空特性,于是,本发明通过挖掘时空限制建立更有效的正反例数据提取方法来提高分类器的效率。
发明内容
为解决上述问题,本发明提供了一种用于人体重现检测的人体表观模型的学习方法及系统,由于,通常同一个人体在不同视角下的表观特征会有所不同,例如当一个人携带背包时,正面和背面会有较大的差异。而底层特征表示受视角影响很大,不同视角下人体的颜色、梯度等分布通常差异极大,因此直接通过计算特征之间的相似度来判断几个人体检测结果是否是同一个人通常都不准确。基于此,提取在视角和光照等环境因素变化下具有不变性的,并具有语义含义的特征,如背包、帽子、人体性别等属性特称成为特征提取的一个重要的解决方案。
传统的人体重现方法通常找一些背景部分作为反例样本,这使得学习到的表观模型在区分不同人体方面,能力较弱。根据人体表观模型的差异,设计有效的策略来在线选择正例和反例训练样本,是提高在线学习分类器在每一个时刻分类准确度的关键因素。由于视频数据具有显著的时空特性,于是,本发明通过挖掘时空限制建立更有效的正反例数据提取方法来提高分类器的效率。所述分类器是一个统计模型,输入为提取的人体表示数据(及特征),输出是其对应的类别标签。
本发明公开一种用于人体重现检测的人体表观模型的学习方法,包括如下步骤:
步骤1,在视频帧的检测窗口中提取人体表观特征,建立人体表观描述子;
步骤2,基于时空约束信息提取正例和反例人体表观描述子,用于训练人体表观模型。
所述的用于人体重现检测的人体表观模型的学习方法,步骤2中还包括:
以同时在线的人体的人体表观模型的更新和/或以在线和离线人体的人体表观模型的更新。
所述的用于人体重现检测的人体表观模型的学习方法,所述步骤2时空约束信息还包括:
步骤31,以所述检测窗口内的人体表观特征作为正例;
步骤32,从所述检测窗口之外位置的窗口中提取人体表观特征作为反例,训练人体表观模型。
所述的用于人体重现检测的人体表观模型的学习方法,所述同时在线的人体表观模型的更新,还包括:
步骤41,同时出现在视频帧中的人体表观特征,互为其对应的人体表观模型的反例训练数据;
所述的在线和离线的人体表观模型的更新,还包括:
步骤42,当前活跃人体表观模型对应的人体表观特征作为用于更新非活跃人体表观模型的反例训练数据。
所述的用于人体重现检测的人体表观模型的学习方法,所述步骤1还包括:
步骤51,增加人体属性信息作为人体表观特征的一部分;
步骤52,将通过视频帧识别的人体属性信息与人体的形状、颜色特征连接生成完整的人体表观特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院计算技术研究所;日电(中国)有限公司,未经中国科学院计算技术研究所;日电(中国)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201210078068.2/2.html,转载请声明来源钻瓜专利网。