[发明专利]基于联合注意力机制孪生Margin-Softmax网络的行人重识别方法有效
申请号: | 201911366078.4 | 申请日: | 2019-12-26 |
公开(公告)号: | CN113051962B | 公开(公告)日: | 2022-11-04 |
发明(设计)人: | 何小海;苏婕;卿粼波;吴小强;许盛宇;吴晓红;滕奇志 | 申请(专利权)人: | 四川大学 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V20/52;G06V10/82;G06N3/04 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 610065 四川*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 联合 注意力 机制 孪生 margin softmax 网络 行人 识别 方法 | ||
1.基于联合注意力机制孪生Margin-Softmax网络的行人重识别方法,其特征在于包括以下步骤:
步骤一:构建具有空间-通道联合注意力机制的AAM-Softmax识别模型,所构建的模型由特征嵌入模块和具有AAM-Softmax分类器的全连接层构成,特征嵌入模块包括由ImageNet预训练的Resnet_50、全局平均池化层和批归一化层以及空间-通道联合注意力机制,用于从原始输入图像中提取2048维特征;
步骤二:利用训练图像,训练步骤一中构建的模型,首先将数据库训练集图像尺寸调整为256×128,输入步骤(1)中所构建的模型,以输入图像的ID作为标签来训练模型;损失函数采用AAM-Softmax损失,通过参数迭代完成模型训练;
步骤三:利用步骤二中训练好的模型作为特征编码器,构建结合识别损失和验证损失的孪生Margin-Softmax网络,该网络的两个子网络权值共享,用AAM-Softmax损失函数预训练的识别模型作为子网络的特征编码器(Feature Encoder),用于从输入图像对提取深度特征将fa,fb输入定义为fs=(fa-fb)2的距离测量模块(Distance MeasurementModul),从而得到距离特征
步骤四:在识别损失和验证损失的共同监督下,训练此网络;一方面,分别识别深度特征fa,fb所属ID,另一方面,将距离特征fs输入相同或不同的二分类网络,验证输入图像对是否属于同一人的ID;验证损失和识别损失均采用组合余量Softmax(Combined Margin-Softmax),其表达式如(1)所示:
其中,m1,m2和m3分别代表乘性角度余量、附加角度余量和余弦余量,网络的总损失函数如式(2)所示:
Ltotal=αLiden1+βLiden2+γLver (2)
其中,α,β,γ分别代表验证损失1、2和识别损失的权重;
步骤五:对步骤四中训练的网络进行测试,采用Rank-1得分和mAP作为评估指标,以评估该网络的性能。
2.根据权利要求1所述的基于联合注意力机制孪生Margin-Softmax网络的行人重识别方法,其特征在于步骤一中所构建的识别模型加入空间-通道联合注意力机制,在不加入任何额外学习参数的情况下,关注空间和通道重要的局部特征。
3.根据权利要求1所述的基于联合注意力机制孪生Margin-Softmax网络的行人重识别方法,其特征在于步骤一中所采用AAM-Softmax损失对模型进行训练,将度量学习融于分类器中,从而提升特征的辨别力。
4.根据权利要求1所述的基于联合注意力机制孪生Margin-Softmax网络的行人重识别方法,其特征在于步骤三中所构建的孪生网络结合识别损失和验证损失(均为CombinedMargin-Softmax损失),在两者的共同监督下训练网络。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川大学,未经四川大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911366078.4/1.html,转载请声明来源钻瓜专利网。