[发明专利]一种渐进增强自学习的无监督跨领域行人再识别方法在审
申请号: | 202010420131.0 | 申请日: | 2020-05-18 |
公开(公告)号: | CN111598004A | 公开(公告)日: | 2020-08-28 |
发明(设计)人: | 沈春华;张欣彧;李峥嵘 | 申请(专利权)人: | 北京星闪世图科技有限公司;李峥嵘;沈春华 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 西安中科汇知识产权代理有限公司 61254 | 代理人: | 刘玲玲 |
地址: | 102206 北京市昌平区*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 渐进 增强 自学习 监督 领域 行人 识别 方法 | ||
本发明公开了一种渐进增强自学习的无监督跨领域行人再识别方法,该方法首先是在有标签原始域数据集上训练得到的网络模型上提取无标签目标域数据集的初始特征,计算相似度得分矩阵,利用HDBSCAN聚类给予目标域数据伪类标,并利用基于Triplet损失函数进行模型重训,随后使用基于Softmax损失函数在带有聚类中心特征初始化分类层的网络模型上再次进行重训,两阶段交替循环学习,相互修正,最后提取网络模型的判别特征作为图片的特征表征,进行特征层面的比对。采用本发明提供的方法能够逐渐增强网络模型的收敛能力及高模型的信息表征能力,进而能够提高网络模型在无标签目标域数据上的泛化能力,从而能够提高无监督跨领域行人再识别精度。
技术领域
本发明涉及一种行人再识别方法,具体涉及一种渐进增强自学习的无监督跨领域行人再识别方法,属于图像处理技术领域。
背景技术
行人再识别是指:给定某摄像头下待检索目标行人,在不同摄像头下将其定位出来,即逐一确认该目标行人是否出现在其他摄像头下。
行人再识别在视频监控、安全防护、辅助侦查等领域具有十分重要的现实意义。
近年来,随着深度学习的快速发展,许多有监督条件下的行人再识别工作取得了突飞猛进的效果,即在大量有身份信息的行人数据集上进行深度神经网络训练,并在同一场景下进行行人再识别。然而,标注大量数据需要巨大的人力和时间成本,因此出现了许多无监督学习方法,无监督学习方法可以充分利用极易获取的无标签数据。相比于有标签数据,无标签数据不提供身份信息,使得网络训练缺少指导性,因此采用无监督学习方法进行行人再识别的效果很差,无法应用于实际生活中。
为了解决无监督学习方法存在的行人再识别效果很差的问题,许多无监督跨领域方法提出了同时使用有标签数据和无标签数据。然而,直接将在有标签数据(原始域)上训练好的模型应用到无标签数据(目标域)上会造成极大的性能偏差,主要问题表现在:
1)由摄像头不同所带来的两个不同领域的图片差异性,例如:光照、颜色、清晰度等;
2)由不同场景所带来的人物特性差异,例如:学校场景下行人多背包或骑车、商场场景下行人的遮挡问题等。
为了解决上述问题,提高在目标域的识别精度,常用的方法是给予目标域的数据伪标签,即利用原始域训练好的模型,在目标域上提取特征,并根据特征之间的相关性来对目标域数据进行分类。该类方法目标是简单有效地对无标签目标域数据进行标注,进而扩充有标签数据,实现数据增强,提高模型的泛化能力。由于没有使用目标域的真实类标,且有效利用了原始域所得到的信息,因此该类方法也统称为无监督跨领域方法。
目前,常用的无监督跨领域方法主要是k-means、DBSCAN等聚类方法,这些方法将无标签目标数据分离成不同的聚类簇,并假设同一个聚类簇的样本属于同一个人。通过这种方法,将无标签目标数据给予伪类标,进而像有监督学习一样利用带有伪类标的目标样本进行模型训练。然而,该类方法模型的性能很大程度上取决于聚类效果的好坏,即是否真实属于同一个人的样本被聚类到同一个聚类簇中。换句话说,模型的性能的好坏取决于样本的真实类别和伪类标的匹配程度。错误标注的样本与正确标注的样本的比例大小很大程度上影响了模型的泛化能力。
发明内容
为解决现有技术的不足,本发明的目的在于提供一种渐进增强自学习的无监督跨领域行人再识别方法,该方法通过渐进自学习,能够逐渐增强聚类质量,减少聚类质量低对于模型训练的不利影响,进而提高模型的泛化能力。
为了实现上述目标,本发明采用如下的技术方案:
一种渐进增强自学习的无监督跨领域行人再识别方法,其特征在于,包括如下步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京星闪世图科技有限公司;李峥嵘;沈春华,未经北京星闪世图科技有限公司;李峥嵘;沈春华许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010420131.0/2.html,转载请声明来源钻瓜专利网。