[发明专利]基于属性感知的高效行人重识别方法有效
申请号: | 202010714592.9 | 申请日: | 2020-07-23 |
公开(公告)号: | CN111898736B | 公开(公告)日: | 2022-07-05 |
发明(设计)人: | 种衍文;冯文强;潘少明 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06V10/774;G06V10/75;G06V20/52;G06K9/62;G06F17/16 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 王琪 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 属性 感知 高效 行人 识别 方法 | ||
本发明设计了一种基于属性感知的高效行人重识别方法,该方法采用Pytorch框架构建卷积神经网络。该方法以自适应加权属性注意模块构建属性学习分支,并指导全局识别分支和部分识别分支学习判别性特征,进而构建了一个高效的行人重识别网络。相比于同类别方法,本方法学习鲁棒的行人属性信息,提出了一种新的设计方案,通过自适应加权感知学习获得细粒度的属性局部信息,提高了特征的判别性,进而提高了预测准确率,同时通过属性感知学习获得的属性注意掩膜指引网络学习鲁棒性的特征,提高了网络的性能。
技术领域
本发明可以应用于行人重识别领域,以Pytorch作为卷积神经网络的搭建框架,构建多分支结构以实现对行人图像的检索。
背景技术
行人重识别是利用图像处理技术在视角不相交的相机拍摄的图像或视频序列中检索特定行人的技术,一直以来是计算机视觉领域的研究热点,广泛应用于智能视频分析和智能安保等领域。目前,基于监控网络的应用主要以人工分析从视频监控信息流中提取有效性息。面对大型监控网络产生的海量视频序列时,人工分析存在着低准确率和低效率等缺点,因此,基于计算机视觉的自动化技术逐渐成为大型监控网络下数据分析的高效手段。
但传统的行人重识别算法依赖手工设计的特征,这些特征通常是低级的颜色和纹理特征,无法包含高级的语义信息,这给学习判别性特征表示带来了限制。随着深度学习在计算机视觉领域的兴起,卷积神经网络开始在图像处理方向广泛应用并取得了巨大的成功。卷积神经网络学习输入与输出之间的映射关系,具有非常强的特征提取能力,特别适合于分类任务和检索任务,这对于行人重识别这类检索任务的快速发展带来了推动作用。
早期基于深度学习的行人重识别方法主要集中于从行人图像的整体中学习全局特征表示,但是由行人姿态变化,相机视角变化和遮挡等造成的行人未对齐问题使得全局特征表示描述行人遇到了瓶颈。于是出现了部分区域检测,姿势和关键点估计等学习局部特征信息的方法,这种学习局部特征的方法在行人重识别任务上实现了不错的性能,但是这些方法需要预先训练人体解析模型或关键点检测器,还严重依赖人体解析模型或关键点检测器的准确性,这给实际应用带来了困难。此外,这些方法仅仅关注人体部分,而忽略了行人饰品对区分相似行人的至关重要的作用。
综上所述,目前行人重识别面临着诸如姿态变化、相机视角变化、光照变化、背景混乱和遮挡等问题,如何学习对这些因素鲁棒并且能够区分相似行人的判别性特征表示是解决上述问题的关键。
发明内容
鉴于现有方法存在的问题和缺陷,本发明提供了一种基于属性感知的行人重识别方法,可以有效的解决该问题。该方法的关键在于以自适应加权属性注意模块构建属性学习分支,该自适应加权属性注意模块在保证网络可以有效捕获属性语义和精确位置的重要依赖关系的同时,还将用于指引部分识别分支提取判别性的特征,最后将属性信息分别迁移到全局识别分支和部分识别分支,以提升其分类能力。最后从全局识别分支和部分识别分支分别提取的特征进行级联获得最终的行人表示,其不仅是属性语义的,而且是身份判别的。
一种基于属性感知的高效行人重识别方法,基于主网络构建了一个多分支网络模型,包括属性学习分支以及全局识别分支和部分识别分支,其中,
所述属性学习分支,用于属性感知任务学习和执行属性识别任务;
所述全局识别分支,用于执行全局图像级身份分类任务;
所述部分识别分支,用于消除空间未对齐和背景杂乱影响,执行部分级身份分类任务;
首先加载一个在ImageNet上预先训练的主干网络模型参数权重,接着对行人重识别数据集中训练图像进行图像预处理,然后用于训练多分支网络模型;对于查询的图像和图库图像,首先做图像预处理转化为用于计算的张量数据,然后输入到训练过的多分支网络模型中提取有效的特征表示,最后计算查询的图像和图库图像之间的特征距离,按照距离对图库图像进行排序,排序越靠前表示相似率越高。
进一步的,所述主干网络为ResNet或SENet。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010714592.9/2.html,转载请声明来源钻瓜专利网。