[发明专利]一种基于标签不确定性和人体组件模型的行人再识别方法有效
申请号: | 201910072934.9 | 申请日: | 2019-01-25 |
公开(公告)号: | CN109829414B | 公开(公告)日: | 2020-11-24 |
发明(设计)人: | 何颖;丁长兴;王侃 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 李斌 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 标签 不确定性 人体 组件 模型 行人 识别 方法 | ||
本发明公开了一种基于标签不确定性和人体组件模型的行人再识别方法,包括:(1)构建基于人体组件的深度神经网络模型;(2)对构建的深度神经网络模型进行初始化,并根据构建的深度神经网络结构训练得到另一个模型;(3)对初始化后的深度神经网络模型进行训练并更新网络中的参数;(4)采用训练好的深度神经网络对目标行人图像及行人图像库中的行人图像分别进行特征提取;(5)对提取得到的特征进行余弦相似度计算并排序,得到识别结果。本发明通过针对局部组件信息不完全准确以及各个局部组件的分类置信度差异较大的问题进行了有效地处理,能有效的提高行人再识别的正确率和/或降低误识率。
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于标签不确定性和人体组件模型的行人再识别方法。
背景技术
随着深度神经网络与计算机视觉技术的发展与进步,以及大规模数据存储技术的飞速发展,行人视频监控因为既能提高公共安全管理的水平,也可以保障人民的人身财产安全,愈发成为各个国家保障人民生活质量的重要手段。行人视频监控能够在大规模图像与视频数据中,实现智能地搜寻特定的行人。随着应用需求以及技术的发展与进步,行人再识别已经成为计算机视觉领域中具有挑战性与实际研究价值的热点。
行人再识别技术从传统的手工特征设计与度量学习方法,发展到现今广泛使用的深度神经网络。基于经验的手工特征设计存在特征挖掘不全面、不完善等特征表达能力弱的缺点,而基于手工特征的距离度量方法泛化能力又较差。近年来流行的卷积神经网络在计算机视觉领域大放异彩,能够挖掘出更多更深的特征,具体地能够发掘图像局部与局部之间的交叉信息,以及更高阶的特征交叉。研究人员也将其应用在行人再识别领域,借鉴人脸识别技术的发展,基于深度学习的行人再识别方法也得到了迅速的发展与进步,譬如基于二元组使用Contrastive Loss的Siamese网络,对比验证是否为同一个行人;和基于三元组使用Triplet Loss的网络,使得相同行人特征更为相似,而使得不同行人特征差异更大。
但是,与人脸识别任务不同的是行人图像之间存在行人对齐、光照、姿态、遮挡、背景、分辨率等差异因素,使得行人再识别具有更大的挑战性。现今大多数研究的主流做法都是通过神经网络抽象得到特征进行表达,进而进行分类。进一步,基于行人人体结构的特点,将通过神经网络后学习出的行人图像特征图进行水平划分,将单一分类任务划分为多个平等的分类任务,最后在测试中将多个任务中的水平特征进行拼接,再进行距离度量,该方法可以在一定程度上缓解行人图像中存在的对齐、遮挡、姿态等变化因素所带来的识别难度。这种方法的有效性得到了验证并且较大幅度提高了相应的识别率,但也尚有不足之处,包括局部信息不完全准确以及各个局部的分类置信度差异较大的问题。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于标签不确定性和人体组件模型的行人再识别方法。本发明针对局部信息不完全准确和不同局部的分类置信度差异,提出一种柔性标签和引入包含sigmoid函数的交叉熵损失函数监督网络的训练。通过对各个局部组件损失分别赋予不同权重并采用设置人工阈值的方法,来规避一些损失值较小的样本对模型训练带来的干扰。
本发明的目的能够通过以下技术方案实现:
一种基于标签不确定性和人体组件模型的行人再识别方法,具体步骤包括:
(1)构建基于人体组件的深度神经网络模型;
(2)对构建的深度神经网络模型进行初始化,并根据构建的深度神经网络结构训练得到另一个模型;
(3)对初始化后的深度神经网络模型进行训练并更新网络中的参数;
(4)采用训练好的深度神经网络对目标行人图像及行人图像库中的行人图像分别进行特征提取;
(5)对提取得到的特征进行余弦相似度计算并排序,得到识别结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910072934.9/2.html,转载请声明来源钻瓜专利网。