[发明专利]一种基于深度多模型协同的半监督行人重识别方法及系统在审
申请号: | 202310477178.4 | 申请日: | 2023-04-28 |
公开(公告)号: | CN116630880A | 公开(公告)日: | 2023-08-22 |
发明(设计)人: | 黄文丽;王子豪;逯丽芬 | 申请(专利权)人: | 苏州凌图科技有限公司 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V10/62;G06V10/82;G06V10/762;G06V10/774 |
代理公司: | 北京酷爱智慧知识产权代理有限公司 11514 | 代理人: | 刘志刚 |
地址: | 215000 江苏省苏州市中国(江苏)自由贸易试验*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 模型 协同 监督 行人 识别 方法 系统 | ||
本发明公开了一种基于深度多模型协同的半监督行人重识别方法及系统,包括:获取多个视图数据,根据所述多个视图数据构建训练样本集,所述训练样本集包括有标签训练样本和无标签训练样本;获取多个异构神经网络模型,根据所述训练样本集对多个异构神经网络模型进行一次训练,得到初始模型;基于所述初始模型交替迭代进行无标签训练样本的伪标签生成和多个异构神经网络模型的二次训练,直至生成目标伪标签。本发明利用部分有标签样本和大量无标签样本对多个异构神经网络模型进行训练,并发挥多个异构神经网络特征的多样性对无标签训练样本进行特征提取,同时利用自适应权重多视图聚类方法进行神经网络特征聚类,从而得到具有较好精确度的伪标签。
技术领域
本发明涉及半监督学习技术领域,具体涉及一种基于深度多模型协同的半监督行人重识别方法及系统。
背景技术
行人再识别是实现智能安防的一项关键技术,给定一个场景中的一幅或者多幅行人的图像,行人再识别技术要求能够在其他不相邻的场景中找到与该图像匹配的行人的所有图像。在不同的场景中,光照条件的不同、行人姿态的变化、图像背景的变动、成像质量的差异通常会导致同一行人类内的变化大于不同行人类间的变化,这给行人再识别任务带来了严峻的挑战。
近年来,行人重识别技术在大规模数据集上达到了优秀的识别准确度,但是大多数方法都是在全监督学习的基础上提出的,由于需要大量人工标记的训练数据,监督学习在实际环境和工业场景中的价值本质是有限的。而现实情境下,在所有应用环境(比如大型购物中心、城市社区街道)中都进行大量数据标记是十分困难的,可以想象标注人员通过观看一组参数不同的相机在不同时间和不同地点拍摄到的视频记录并搜索定位同一个行人有多困难,因此,实际场景中行人重识别首先需要面对的问题就是标记数据的严重缺乏。为了克服全监督学习方法对大规模数据的严重依赖,已经出现了一些半监督或无监督学习方法,其中,半监督行人重识别方法通过结合少量标记数据和大量未标记数据,最大化利用监督信息并充分挖掘无监督信息,实现行人检索的目标。
发明内容
针对现有技术中的缺陷,本发明提供一种基于深度多模型协同的半监督行人重识别方法及系统。
第一方面,一种基于深度多模型协同的半监督行人重识别方法,包括:
获取多个视图数据,根据所述多个视图数据构建训练样本集,所述训练样本集包括有标签训练样本和无标签训练样本;
获取多个异构神经网络模型,根据所述训练样本集对多个异构神经网络模型进行一次训练,得到初始模型;
基于所述初始模型交替迭代进行无标签训练样本的伪标签生成和多个异构神经网络模型的二次训练,直至生成目标伪标签。
进一步地,所述获取多个异构神经网络模型,根据所述训练样本集对多个异构神经网络模型进行一次训练,得到初始模型,具体为:
获取多个结构不同的深度神经网络模型,并训练所述多个深度神经网络模型作为多个视图下的特征提取器,以获取多个异构神经网络模型;
根据所述训练样本集对多个异构神经网络模型进行特征聚类,并得到无标签训练样本的伪标签;
基于带有所述伪标签的无标签训练样本和部分有标签训练样本对多个异构神经网络模型进行一次训练,以对所述多个异构神经网络模型的网络结构进行一次微调;
根据一次训练结果交替更新所述多个异构神经网络模型的网络结构和无标签训练样本的伪标签,得到初始模型。
进一步地,所述基于所述初始模型交替迭代进行无标签训练样本的伪标签生成和多个异构神经网络模型的二次训练,直至生成目标伪标签,包括:
基于所述初始模型对无标签训练样本进行特征提取,根据所提取的特征运用自适应权重多视图聚类方法对无标签训练样本进行特征聚类,得到无标签训练样本的初始伪标签;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州凌图科技有限公司,未经苏州凌图科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310477178.4/2.html,转载请声明来源钻瓜专利网。