[发明专利]行人重识别网络的训练及基于其的行人重识别有效
申请号: | 201710906719.5 | 申请日: | 2017-09-29 |
公开(公告)号: | CN108875487B | 公开(公告)日: | 2021-06-15 |
发明(设计)人: | 罗浩;张弛 | 申请(专利权)人: | 北京旷视科技有限公司;北京迈格威科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京市磐华律师事务所 11336 | 代理人: | 高伟;卜璐璐 |
地址: | 100190 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 行人 识别 网络 训练 基于 | ||
本发明提供了行人重识别网络的训练及基于其的行人重识别的方法、装置、系统和存储介质,所述行人重识别网络的训练方法包括:利用分类损失对基准网络进行预训练;以及联合分类损失和五元组损失对经预训练的基准网络进行调优以得到行人重识别网络。根据本发明实施例的行人重识别网络的训练方法、装置、系统和存储介质联合分类损失和距离损失进行训练,能够加快训练过程并提高精度;此外,在距离损失环节中采用五元组方法,相比于传统的三元组、改进三元组和四元组方法,能够显著缩短训练时间,并且进一步提高精度。
技术领域
本发明涉及行人重识别技术领域,更具体地涉及一种行人重识别网络的训练及基于其的行人重识别方法、装置、系统和存储介质。
背景技术
行人重识别也称行人再识别,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。给定一个监控行人图像,检索跨设备下的该行人图像。旨在弥补目前固定的摄像头的视觉局限,并可与行人检测/行人跟踪技术相结合,可广泛应用于智能视频监控、智能安保等领域。
现有的行人重识别方法根据训练思想可以分成两种做法:第一种是把每个行人作为一个类别,将行人重识别转化为图像分类问题;第二种是提取每张行人图片的特征,计算两种图片特征的距离,通过最小化同一个人之间图片特征的距离和最大化不同行人之间图片特征的距离来训练一个提取特征的网络模型,目前的方法包括三元组、改进三元组以及四元组。
然而,基于分类损失训练的模型在精度方面很难达到一个很高的水平,而基于距离损失训练的模型虽然精度通常会优于前者,但是网络训练时间却非常长。
发明内容
针对上述问题,本发明提出了一种关于行人重识别网络的训练的方案,其结合两种方法的优点,通过联合分类损失和距离损失来加快训练过程并提高精度。下面简要描述本发明提出的关于行人重识别网络的训练的方案,更多细节将在后续结合附图在具体实施方式中加以描述。
根据本发明一方面,提供了一种行人重识别网络的训练方法,所述训练方法包括:利用分类损失对基准网络进行预训练;以及联合分类损失和五元组损失对经预训练的基准网络进行调优以得到行人重识别网络。
在本发明的一个实施例中,所述利用分类损失对基准网络进行预训练包括:将样本图片输入到所述基准网络;将所述基准网络针对所述样本图片输出的预测向量与所述样本图片的标签向量进行比较以得到分类损失;基于所述分类损失调整所述基准网络的参数;以及反复进行上述步骤,直到分类准确度和分类损失基本不再变化。
在本发明的一个实施例中,所述基准网络为残差网络。
在本发明的一个实施例中,在将所述样本图片输入到所述基准网络之前,对所述样本图片实施预处理操作。
在本发明的一个实施例中,所述联合分类损失和五元组损失对经预训练的基准网络进行调优包括:按预定要求和顺序输入五元组的五张样本图片;基于所述基准网络针对每张所述样本图片输出的预测向量计算分类损失;基于所述基准网络针对所述五张样本图片输出的特征向量计算五元组损失;以及基于所计算的分类损失和所计算的五元组损失计算最终的损失以作为所述行人重识别网络的损失。
在本发明的一个实施例中,所述所计算的分类损失为所述五张样本图片的分类损失的平均值。
在本发明的一个实施例中,所述五元组损失定义为:
lqt=d(正样本1,正样本2)-d(负样本1,负样本21)+d(负样本21,负样本22)-d(负样本1,正样本2)+a
其中,lqt为五元组损失;正样本1、正样本2、负样本1、负样本21以及负样本22为所述五张样本图片,且正样本1和正样本2为第一行人的两张不同图片,负样本1为第二行人的图片,负样本21和负样本22为第三行人的两张不同图片;d为两张图片的特征向量之间的距离;a为根据需求设置的常数参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京旷视科技有限公司;北京迈格威科技有限公司,未经北京旷视科技有限公司;北京迈格威科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710906719.5/2.html,转载请声明来源钻瓜专利网。