[发明专利]一种基于多层神经网络的跨场景行人重识别的方法在审
申请号: | 201811010519.2 | 申请日: | 2018-08-31 |
公开(公告)号: | CN109117823A | 公开(公告)日: | 2019-01-01 |
发明(设计)人: | 顾晓清;倪彤光;王洪元 | 申请(专利权)人: | 常州大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 213164 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 场景 多层神经网络 训练集 样本 标识数据 测试集 视频帧 截取 非线性映射 摄像头 降维处理 模型学习 特征提取 目标域 学习 源域 迁移 视频 采集 图像 | ||
本发明公开了一种基于多层神经网络的跨场景行人重识别的方法,其步骤如下:(1)采集当前场景下摄像头中的行人视频,截取视频帧;(2)对步骤1截取到的视频帧中的行人图像进行特征提取和降维处理,使用样本对构成目标域训练集Xt,得到测试集Xo;(3)对相关场景下的带标识数据进行处理,使用样本对构成源域训练集Xs;(4)建立训练集X,X=[Xs,Xt];(5)使用X来训练多层神经网络模型;(6)根据步骤5得到的模型在测试集Xo中对待识别样本进行识别。本发明选用具备可实现复杂非线性映射的多层神经网络作为学习模型,使用迁移学习思想将相关场景的带标识数据加入到新场景的模型学习中,使得对新场景的学习更准确有效。
技术领域
本发明涉及计算机视觉与模式识别领域,具体涉及一种基于多层神经网络的跨场景行人重识别的方法
背景技术
随着大量摄像机在公共场所的普及,基于行人的图片和视频数据的应用也逐渐受到更加广泛的重视,其中一项重要的应用是行人重识别。行人重识别是指通过非重叠摄像机采集的多时间段行人视频数据查找关于同一行人的技术。在公共安全日益受到重视的今天,行人重识别越来越受到人们的关注。伴随行人重识别在各种新领域中的应用,在实际条件下一个很重要的技术问题是如何在一个新的场景中部署行人重识别系统。因为新场景中往往没有大量的已标记数据,而且标记数据非常耗时耗力,训练数据及其标识的匮乏影响了新场景中对行人重识别模型的建立,也容易造成目标的错误识别。
解决此问题的一个有效方法是引入迁移学习的思想。根据迁移学习的思想,如果能使用相关场景(源域)的数据辅助训练当前场景(目标域)的数据,可以提升系统的性能。尽管这些相关领域的数据可能过时,或者与当前场景的数据分布是不一致的,但其包含的有价值信息却可以帮助当前场景的数据建立有效的识别系统。当前,越来越多的研究者尝试利用迁移学习的方法对行人重识别模型进行研究,如王洪元等人发明了一种基于迁移学习的非对称多任务判别模型进行行人的重识别(一种基于迁移学习的行人重识别方法,专利申请号201711112527.3);章东平等人发明了基于迁移学习的行人重识别方法(基于迁移学习的行人重识别方法,专利申请号201510445055.8),首先求得源域数据的模型参数,再将模型参数迁移到目标域,得到目标域数据的模型。但这两种方法都存在缺陷,前一种方法通过线性变换将原始空间的数据投影到新的特征空间,往往不能捕捉到行人图像的非线性结构;后一种方法目标域数据没有参与到构建源域模型的构建中,两个领域的差异没有充分考虑,另外,该方法也没有考虑数据之间的类别差异性,容易导致模型的局部学习能力不足。针对行人重识别方法的现状和诸多不足,本发明提出了一种基于多层神经网络的跨场景行人重识别的方法。
发明内容
本发明的主要目的是利用神经网络具备的处理非线性和高精度的处理能力,提供一种易操作、高可靠的基于多层神经网络的跨场景行人重识别的方法,重点改进了现有方法所建立的跨场景行人重识别模型的识别精度不高的缺陷。
本发明采用下述技术方案来实现:
一种基于多层神经网络的跨场景行人重识别的方法,其特征在于,包括以下步骤:
步骤1.采集当前场景下摄像头中的行人视频,截取视频帧;
步骤2.对步骤1截取到的视频帧中的行人图像进行特征提取和降维处理,得到当前场景下带标识的目标域训练数据和不带标识的目标域测试集xti和xoi分别是目标域训练样本和目标域测试样本,yti是xti的标识,Nt和N0分别是目标域训练样本和测试样本的数量,根据样本的标识,将具有相同标识的训练样本组成正样本对,不同标识的训练样本组成负样本对,样本对构成目标域训练集Xt;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于常州大学,未经常州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811010519.2/2.html,转载请声明来源钻瓜专利网。