[发明专利]基于AdaRank的深度特征和传统特征的集成方法在审
申请号: | 201710450306.0 | 申请日: | 2017-06-15 |
公开(公告)号: | CN107292259A | 公开(公告)日: | 2017-10-24 |
发明(设计)人: | 郑苏桐;郭晓强;李小雨;姜竹青;门爱东 | 申请(专利权)人: | 国家新闻出版广电总局广播科学研究院;北京邮电大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46 |
代理公司: | 天津盛理知识产权代理有限公司12209 | 代理人: | 王利文 |
地址: | 100886 北京市西*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 adarank 深度 特征 传统 集成 方法 | ||
技术领域
本发明属于计算机视觉识别技术领域,尤其是一种基于AdaRank的深度特征和传统特征的集成方法。
背景技术
随着监控范围的增大,监控数据呈现爆炸式增长。依靠人眼识别监控画面中的行人身份显然十分低效,行人再识别技术的任务便是依靠计算机视觉技术解决不重叠监控视野中行人身份匹配的问题。
现有行人再识别算法主要分为两类,一类是传统方法,由特征提取和度量学习两个步骤组成。在特征提取阶段,算法根据数据的特点挖掘有用信息并组织成特征,该特征需要具备描述能力、区分能力和鲁棒性。在度量学习阶段,算法将原有的特征空间进行线性或非线性变换,将特征映射到新的空间中,使得在这个空间中同类样本之间距离较小而不同类样本之间距离较大。另一类是基于深度学习的方法,深度学习是近年来的热门方向,它在计算机视觉领域表现出强大的性能。由于在行人再识别任务中需要比较两个样本之间的相似度,因此用于这一任务的深度网络多数采用了孪生网络结构,即由两条共享参数的分支构成。一对样本输入网络后进行一系列卷积、池化等操作,在网络的末端将两个分支的输出结果进行比较,得出两个样本的相似度。
在深度学习方法中,网络末端的输出可以视为网络计算得出的特征,即深度特征。传统特征和深度特征在性能上各有优势。传统特征由算法分析得出,内部原理清晰,可以根据具体应用场景进行适当的优化。深度特征由深度网络自主学习得出,能够提取到算法无法分析得到的特征。因此,如何将上述特征进行充分利用以提高整体匹配率是目前迫切要求解决的问题。
发明内容
本发明的目地在于克服现有技术的不足,提出一种设计合理、匹配率高且稳定性强的基于AdaRank的深度特征和传统特征的集成方法。
本发明解决其技术问题是采取以下技术方案实现的:
一种基于AdaRank的深度特征和传统特征的集成方法,包括以下步骤:
步骤1、将图像数据进行分割,针对不同部分分别构造并训练深度卷及神经网络,用以获得深度特征;
步骤2、从行人再识别数据中提取传统特征,包括LOMO特征、ELF6特征、Hog3D特征;
步骤3、选取如下三种度量学习方法:KISSME、kLFDA和LMNN;
步骤4、将所有特征与三种度量学习方法进行组合张成笛卡尔乘积,得到一系列弱排序器;
步骤5、利用AdaRank算法,对弱排序器进行集成学习,最终得到强排序器。
所述步骤1的具体实现方法为:
根据图像特点对数据进行分割,分割依据是行人的不同身体部位;根据头部、躯干、腿部的原则,每张图片被分割为大小不等的三部分作为三种不同的训练数据,同时整体图像作为一类数据;针对这四种不同数据,分别构造四个结构略有差异的深度卷积神经网络,该训练神经网络时采用了余弦距离作为样本相似度的度量以及三重损失作为损失函数,该余弦距离定义如下:
其中B1和B2是神经网络全连接层的输出;
设有一对图像序列集,P=(p1,p2,...,pm)是参考集,其中的pi是参考集的第i个样本;G=(g1,g2,...,gn)是备选集,其中的gj是备选集的第j个样本,Sij表示pi和gj之间的余弦距离,对于pi来说,正向损失指同类样本之间距离过大造成的损失,定义如下:
负向损失指不同类样本之间距离过小造成的损失,定义如下:
上面两个式子中,Ik表示样本k的身份,Kp和Kn分别表示同类样本对和不同类样本对的数量;损失函数的最终形式如下:
Ji=Ji-pos+λJi-neg
其中,λ是一个用来平衡两种损失的参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于国家新闻出版广电总局广播科学研究院;北京邮电大学,未经国家新闻出版广电总局广播科学研究院;北京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710450306.0/2.html,转载请声明来源钻瓜专利网。