[发明专利]基于不规则视频序列的行人重识别方法及系统有效
申请号: | 201710572155.6 | 申请日: | 2017-07-13 |
公开(公告)号: | CN107273873B | 公开(公告)日: | 2019-09-17 |
发明(设计)人: | 胡瑞敏;黄文军;梁超;阮威健;王正 | 申请(专利权)人: | 武汉大学;武汉大学苏州研究院 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/40 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 严彦 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 不规则 视频 序列 行人 识别 方法 系统 | ||
本发明提供基于不规则视频序列的行人重识别方法及系统,包括通过检测状态曲线中的稳定点,从视频序列提取多个连续的子序列,得到候选序列;利用稀疏表示求取每个子序列的重构误差,得到各子序列的噪声度量结果;根据各子序列的噪声度量结果,从候选序列中剔除噪声大于相应阈值的子序列,构成候选池;进行自适应权重的行人特征表示,得到基于视频序列的检索结果。本发明提升了不规则序列下行人重识别的性能,可广泛用于监控领域、视频分析以及其他多媒体应用,精度高,效果好,具有重要的市场价值。
技术领域
本发明涉及一种行人重识别方法,具体涉及一种基于不规则视频序列的行人重识别方法及系统。
背景技术
行人重识别,即在不同的摄像头下识别感兴趣行人。近年来,由于其在监控领域、视频分析以及其他多媒体应用中的关键作用而广受关注。由于查询图片和在库图片通常是由不同的摄像头拍摄,因此,光照以及行人外貌会发生较大的变化,加上遮挡等其他外部环境的干扰,使得行人重识别成为一个相当有挑战性的工作。当前,基于行人重识别的工作可以大致分为两种:具有判别力的特征表示或者学习有效的距离度量模型。尽管近年来基于图像的行人重识别已经取得了长足的进步,然而,由于单张图片具有的信息有限,难以获取行人鲁棒的外观特征以及时空信息,使得这种方法在复杂场景下难以取得很好的识别效果。在实际的应用中,行人更多的是被视频所记录,这就意味着在每个摄像头下行人具有多张连续的图像信息。因此,利用这种序列图像来提升行人重识别的性能是一个很自然的选择,这也直接推动了基于视频序列的行人重识别方法的研究。
相比于基于单张图像的行人重识别,视频序列具有更加丰富的信息。首先,视频序列具有丰富的时空信息;其次,视频序列中的行人视觉特征更加充足,从而可以构建更加鲁棒的行人外观表示;最后,在视频序列中,可以通过一定的方法有效的减轻遮挡及复杂背景带来的影响,而在单张图片中很难克服背景及遮挡对识别的影响。近来,已经有部分工作致力于研究基于视频的行人重识别工作,这些工作主要利用视频序列来构建更加鲁棒的行人特征或者利用行人视频序列学习更加具有判别力的距离度量方法。现有的基于视频序列的重识别方法大多忽视了视频序列中存在的噪声,将视频序列中的每张图像同等利用。然而,在实际应用中,视频序列中的部分图像大多是具有很强的噪声干扰的,特别是遮挡以及背景的干扰。本发明将这种具有较强噪声干扰的视频序列称为不规则视频序列,这种序列对于行人的特征表示具有很大的影响,如何有效的处理不规则视频序列是一个亟待解决的技术难题。
发明内容
针对于传统方法难以解决视频序列中噪声干扰的问题,本发明提出了一种可行的技术方案,用于检测和消除视频中的不规则子序列,从而保留噪声较小的视频子序列,构建更加鲁棒的行人特征表示,提高检索识别效果。
为了实现上述目标,本发明采用的技术方案提供一种基于不规则视频序列的行人重识别方法,包括以下步骤,
步骤1,视频序列的分割,包括通过检测状态曲线中的稳定点,从视频序列M提取多个连续的子序列,得到候选序列S;
步骤2,基于稀疏表示的不规则序列检测,包括利用稀疏表示求取每个子序列的重构误差,得到各子序列的噪声度量结果;
步骤3,不规则子序列的去除,包括根据步骤2中所得各子序列的噪声度量结果,从候选序列S中剔除噪声大于相应阈值的子序列,设保留的子序列为s1,...,sT,构成候选池Q;
步骤4,进行自适应权重的行人特征表示,得到基于视频序列M的检索结果,包括以下子步骤,
步骤4.1,子序列基础特征表示,包括对于候选池Q中的每个子序列分别用相应基础特征表示,记为f1,...,fN;
步骤4.2,计算候选池Q中任一子序列st的权重ωt如下,
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学;武汉大学苏州研究院,未经武汉大学;武汉大学苏州研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710572155.6/2.html,转载请声明来源钻瓜专利网。