[发明专利]基于风格转换和联合学习网络的域自适应行人再识别方法在审
申请号: | 202111053962.X | 申请日: | 2021-09-09 |
公开(公告)号: | CN113723345A | 公开(公告)日: | 2021-11-30 |
发明(设计)人: | 郭迎春;冯放;阎刚;朱叶;于洋;师硕;刘依;吕华;郝小可;于明 | 申请(专利权)人: | 河北工业大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04 |
代理公司: | 天津翰林知识产权代理事务所(普通合伙) 12210 | 代理人: | 蔡运红 |
地址: | 300130 天津市红桥区*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 风格 转换 联合 学习 网络 自适应 行人 识别 方法 | ||
1.一种基于风格转换和联合学习网络的域自适应行人再识别方法,其特征在于,该方法的具体步骤如下:
第一步、利用源域数据集对神经网络模型进行预训练,得到预训练参数;
第二步、获取目标域数据集,并对目标域数据集中的行人图像进行风格转换,得到新的目标域数据集;
第三步、将预训练参数分别作为两个神经网络模型的初始参数进行初始化,得到神经网络模型R1和R2,这两个神经网络模型构成联合学习网络;将新的目标域数据集中的每张行人图像进行预处理;
第四步、将同一张行人图像采用两种预处理方式得到的预处理后的图像分别输入到神经网络模型R1和R2中进行特征提取,得到两个高阶特征,并将两个高阶特征分别保存至存储器F1和F2中;同时将这两个高阶特征分别进行聚类处理,得到两个伪标签;
将存储器F1和F2中属于同一张行人图像的两个高阶特征进行加权融合,得到融合后的高阶特征,并将融合后的高阶特征存储在联合存储器F中;
第五步、基于伪标签训练神经网络模型R1和R2,并利用目标域分类损失函数和目标域三元组损失函数计算训练损失;利用联合存储器F中融合后的高阶特征对神经网络模型R1和R2进行同步训练,并利用联合分类损失函数和联合三元组损失函数计算训练损失;利用式(14)计算两个神经网络模型R1和R2总的训练损失;
Lall=λLt,id+γLt,tri+(1-λ)Luid+(1-γ)Lutri (14)
式(14)中,λ和γ均为权重参数,Lt,id为神经网络模型R1和R2总的目标域分类损失,Lt,tri为神经网络模型R1和R2总的目标域三元组损失,Luid为神经网络模型R1和R2总的联合分类损失,Lutri为神经网络模型R1和R2总的联合三元组损失;
第六步、重复第四、五步对神经网络模型R1和R2进行训练,直到训练完成;计算神经网络模型R1和R2的识别精度,将识别精度最佳的神经网络模型用于行人再识别。
2.根据权利要求1所述的基于风格转换和联合学习网络的域自适应行人再识别方法,其特征在于,第五步中,目标域分类损失函数的表达式为:
式(5)中,Nt为目标域数据集中行人图像的数量;表示利用神经网络模型k进行训练时将第i张行人图像预测为身份的概率,k取R1表示神经网络模型R1对应的目标域分类损失函数,k取R2表示神经网络模型R2对应的目标域分类损失函数;
神经网络模型R1和R2总的目标域分类损失为:
目标域三元组损失函数的表达式为:
式(7)中,分别表示利用神经网络模型k进行训练时第i张行人图像的难正样本和难负样本,分别表示难正样本和难负样本对应的特征,表示利用神经网络模型k提取的高阶特征;
神经网络模型R1和R2总的目标域三元组损失为:
联合分类损失函数的表达式为:
式(9)中,分别表示利用联合存储器F中融合后的高阶特征和利用存储器Fe中的高阶特征对神经网络模型R1和R2进行训练时第i张行人图像在第q个聚类类别下的预测概率;e取1表示存储器F1,e取2表示存储器F2;
神经网络模型R1和R2总的联合分类损失为:
联合三元组损失函数的表达式为:
式(11)中,的表达式为:
神经网络模型R1和R2总的联合三元组损失如式(13)所示。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河北工业大学,未经河北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111053962.X/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种基于3D打印的PIN接插件注塑模具
- 下一篇:一种双模差压传感器