[发明专利]基于姿态估计与视点机制融合的行人再识别方法在审
申请号: | 201910287259.1 | 申请日: | 2019-04-08 |
公开(公告)号: | CN110008913A | 公开(公告)日: | 2019-07-12 |
发明(设计)人: | 徐曾春;裴嘉震;胡平 | 申请(专利权)人: | 南京工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 211816 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 关键区域 机制融合 相机拍摄 姿态估计 视点 图像 神经网络结构 语义 结构信息 局部特征 区域特征 全局特征 身体区域 视点位置 特征融合 行人身体 行人数据 姿势估计 对齐 关键点 子网络 加载 刑侦 遮挡 匹配 姿势 侧面 合并 拍摄 融合 预测 网络 帮助 | ||
1.基于姿态估计与视点机制融合的行人再识别方法,其特征在于,所述方法包括以下步骤:
步骤一:行人再识别数据集采集,获取行人再识别公开数据集,区分训练集与测试集,进入步骤二;
步骤二:行人再识别数据集训练,将行人再识别公开数据集的训练集作为深度卷积神经网络模型的训练集,最终得到行人再识别模型进行进入步骤三;
步骤三:特征提取与融合,根据步骤二,得到的行人再识别模型,对查询图像与库图像提取网络中的全局特征与局部特征,将一张图像输入网络后,通过特征嵌入网络与特征融合网络最终获得一个2048维向量特征进入步骤四;
步骤四:再识别分析,根据步骤三获得的2048维特征向量,计算查询图像特征与待查询图像特征之间的欧几里得距离,将该距离由小到大排序,排名较前的图像较大可能与查询图像为同一行人,并利用CMC累积匹配曲线中的RANK1,RANK5,RANK10,RANK20与平均精度mAP作为算法性能的评价指标。
2.根据权利要求1所述的基于姿态估计与视点机制融合的行人再识别方法,其特征在于,步骤一中所述得到行人再识别数据集方法包括以下步骤:
步骤一:获取广泛使用的行人再识别数据集CHUK 03,Market-1501,与DukeMTMC-reID数据集进行实验,将CHUK03中的第三组的100个行人图像作为测试集,剩余1367个行人的图像作为训练集,Market1501训练集有751人,包含12,936张图像;测试集有750人,包含19,732张图像;训练集有702个行人的16522张图像,测试集有702个行人的17661张图像。
3.根据权利要求1所述的基于姿态估计与视点机制融合的行人再识别方法,其特征在于,步骤二所述的卷积神经网络模型训练包括以下步骤:
步骤一:训练过程中,输入图像进入我们的卷积神经网络,进行特征提取,深度卷积神经网络框架由特征嵌入网络与特征融合网络组成,其主干网络为Resnet50;
步骤二:考虑训练过程中的损失函数,我们采用三个Softmax loss作为Loss函数,分别为全局损失,融合损失,局部损失,统一用以下公式作为损失函数:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京工业大学,未经南京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910287259.1/1.html,转载请声明来源钻瓜专利网。