[发明专利]一种基于全局特征拼接的行人重识别方法在审
申请号: | 201910958532.9 | 申请日: | 2019-10-10 |
公开(公告)号: | CN110796026A | 公开(公告)日: | 2020-02-14 |
发明(设计)人: | 熊炜;杨荻椿;熊子婕;童磊;李敏;李利荣;王娟 | 申请(专利权)人: | 湖北工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62 |
代理公司: | 42222 武汉科皓知识产权代理事务所(特殊普通合伙) | 代理人: | 魏波 |
地址: | 430068 湖北*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 损失函数 拼接 聚类 骨干网络 卷积处理 空间维度 评价指标 全局特征 特征信息 图像特征 网络结构 网络性能 训练模型 计算量 交叉熵 三元组 数据集 细粒度 卷积 引入 网络 联合 | ||
1.一种基于全局特征拼接的行人重识别方法,其特征在于,包括以下步骤:
步骤1:针对输入的行人重识别数据集,进行特征提取;所述行人重识别数据集的测试集由查询集和候选行人数据集组成;
步骤2:特征拼接;
首先使用双线性插值做升维处理,将特征尺度统一;然后将相同尺度的特征拼接;
步骤3:卷积操作;
卷积层采用步长为1,填充为1的3×3卷积提取拼接特征;
步骤4:池化操作;
将步骤3所提取的特征做全局平均池化和归一化处理;
步骤5:将聚类损失函数和标签平滑损失函数联合训练网络,学习更多具有识别性的特征;
步骤6:输出结果;
计算查询数据集中指定行人图像和候选行人数据集中每张图像的欧式距离,接着对所计算得到的距离进行升序排序,获得行人重识别结果。
2.根据权利要求1所述的基于全局特征拼接的行人重识别方法,其特征在于,步骤1的具体实现包括以下子步骤:
步骤1.1:针对输入的行人图像数据集,采用REA对图像进行随机遮拦;
步骤1.2:然后将数据集输入至SE-ResNeXt50网络,最终输出特征;
所述SE-ResNeXt50网络是ResNet和SENet的结合;ResNet将输入端的特征直接传到输出端,整个网络只需学习两端的差别;SENet依据损失函数去学习每个特征通道的重要程度,有效的Feature Map权重变大,无效的则减小;SE-ResNeXt是在残差块中嵌入SE Block,并把残差块中的单路卷积分为多个支路的多路卷积。
3.根据权利要求1所述的基于全局特征拼接的行人重识别方法,其特征在于,步骤2的具体实现包括以下子步骤:
步骤2.1:特征尺度变换;
已知f1尺度为32×16×512,f2为16×8×1024,f3为8×4×2048;首先使用双线性插值,分别将f2放大为32×16×1024,f3放大为32×16×2048,然后用1×1卷积将f1、f2升维为32×16×2048;其中,f1、f2、f3示的是Se-ResNeXt50网络通过不同卷积层做卷积操作得到特征张量;
步骤2.2:特征拼接;
将3个相同尺度的特征拼接为f=[f1、f2、f3]。
4.根据权利要求1-3任意一项所述的基于全局特征拼接的行人重识别方法,其特征在于,步骤5的具体实现包括以下子步骤:
步骤5.1:确定聚类损失函数;
设网络模型训练中P为所有行人图像,K为每个行人i的图像总和;类内行人的平均特征映射fia为:
其中,f(xk)为行人i的一张图像的特征映射;
目标样本与类内平均行人特征映射的最大欧式距离为:
目标样本的类内平均行人特征映射与类间平均行人特征映射的最小欧式距离为;
其中,为行人j的类内平均行人特征映射,j∈P且i≠j;
在训练过程中只考虑强样本,定义基于强样本挖掘的聚类损失函数Lcluster_h为:
其中,α为目标样本分别与类内和类间平均样本的间隔参数;
步骤5.2:确定标签平滑损失函数;
行人重识别的分类常使用交叉熵损失函数为:
其中,M为总的行人数量,m是行人标签,pi是网络预测该行人属于标签i行人的概率;
引入标签平滑损失函数Lcross_ls,对标签做了平滑处理,
其中,给定一个错误率ε,以1-ε作为真实标签进行训练;
步骤5.3:确定联合损失函数;
将聚类损失函数和标签平滑损失函数联合训练网络,将归一化层之前的特征用于聚类损失,归一化层后的特征用于标签平滑损失;
联合损失函数定义为:
Lloss=Lcluster_h+Lcross_ls (7)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北工业大学,未经湖北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910958532.9/1.html,转载请声明来源钻瓜专利网。