[发明专利]一种多视角下的多粒度特征聚合目标重识别方法及系统有效
申请号: | 202110183597.8 | 申请日: | 2021-02-08 |
公开(公告)号: | CN112906557B | 公开(公告)日: | 2023-07-14 |
发明(设计)人: | 彭德光 | 申请(专利权)人: | 重庆兆光科技股份有限公司 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V20/40;G06V10/44;G06V10/764;G06V10/774;G06V10/82;G06N3/0464;G06N3/047;G06N3/048;G06N3/084;G06N3/09 |
代理公司: | 重庆渝之知识产权代理有限公司 50249 | 代理人: | 柴社英 |
地址: | 400000 重庆市璧山区璧泉街道*** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 视角 粒度 特征 聚合 目标 识别 方法 系统 | ||
本发明提出一种多视角下的多粒度特征聚合目标重识别方法及系统,包括:构建多视角神经网络,通过所述多视角神经网络获取目标对象多个视角的目标特征;基于设定时间段内各目标对象的所述目标特征,构建多粒度超图;输入待查询目标图形,从所述多粒度超图中获取所述待查询目标图像的邻近特征集;将所述待查询目标图像的邻近特征集与所述多粒度超图中各目标对象的邻近特征集进行相似度比对,获取目标对象重识别结果;本发明可以有效提高重识别精度。
技术领域
本发明涉及领域,尤其涉及一种多视角下的多粒度特征聚合目标重识别方法及系统。
背景技术
基于视频序列的行人重识别由于其丰富的时间信息可被用来解决视觉歧义而被广泛讨论,目前针对于视频行人重识别经典方法是将视频序列采用深度学习方法到投影高维特征空间,然后通过计算样本之间的距离来执行身份匹配排序,主要包括采用递归神经网络聚合帧级时间特征来表示视频行人特征,使用光流场提取视频帧动态时间信息来学习时间特征。现有技术的缺点:1.基于递归神经网络的视频学习,无法学习到最有判别性的特征,且模型对于长片段视频的训练复杂,耗时长。2.借助光场探索流结构来提取时间特征的方法,常会由于某一段视频片段的相邻帧不对齐,极易产生光流估计误差。为了解决上述问题,本发明1.提出一种基于多视角下多粒度特征聚合的视频行人重识别方法,同时捕获视频序列的多粒度空间信息与时间信息,采用简单高效的超图构建方式,保留并增强不同空间粒度的多样性判别特征表示。
发明内容
鉴于以上现有技术存在的问题,本发明提出一种多视角下的多粒度特征聚合目标重识别方法及系统,主要解决现有方法训练耗时长且准确性不高的问题。
为了实现上述目的及其他目的,本发明采用的技术方案如下。
一种多视角下的多粒度特征聚合目标重识别方法,包括:
构建多视角神经网络,通过所述多视角神经网络获取目标对象多个视角的目标特征;
基于设定时间段内各目标对象的所述目标特征,构建多粒度超图;
输入待查询目标图形,从所述多粒度超图中获取所述待查询目标图像的邻近特征集;
将所述待查询目标图像的邻近特征集与所述多粒度超图中各目标对象的邻近特征集进行相似度比对,获取目标对象重识别结果。
可选地,所述多视角神经网络包括卷积神经网络和分类输出层,图像经过所述卷积神经网络进行特征提取后,输入所述分类输出层获取不同视角的目标特征输出。
可选地,将包含预先标注的不同视角图像集输入所述多视角神经网络,通过交叉熵构造损失函数,采用反向传播更新网络参数,对所述多视角神经网络进行预训练。
可选地,所述损失函数表示为:
其中,yi为对应视角的标签,为分类预测结果,N为视角数量。
可选地,所述目标对象包括行人、车辆。
可选地,从所述多粒度超图中获取所述待查询目标图像的邻近特征集,包括:
计算所述多粒度超图中各目标特征间的欧氏距离,获取与待查询目标图像对应的特征距离最近的前K个目标特征;
获取所述K个目标特征中每个目标特征的邻集,选出各邻集中包含待查询目标图像对应特征的邻集组成所述待查询目标图像的邻近特征集。
可选地,将所述待查询目标图像的邻近特征集与所述多粒度超图中各目标对象的邻近特征集进行相似度比对,获取目标对象重识别结果,包括:
通过Jaccard距离度量邻近特征集之间的相似度,选出相似度达到设定阈值的邻近特征集对应的目标对象作为重识别输出。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆兆光科技股份有限公司,未经重庆兆光科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110183597.8/2.html,转载请声明来源钻瓜专利网。