[发明专利]跨模态行人重识别方法、装置、电子设备及存储介质在审
申请号: | 202010737849.2 | 申请日: | 2020-07-28 |
公开(公告)号: | CN111881826A | 公开(公告)日: | 2020-11-03 |
发明(设计)人: | 张浩;李一力;邵新庆;刘强;徐明 | 申请(专利权)人: | 深圳力维智联技术有限公司;南京中兴力维软件有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 深圳鼎合诚知识产权代理有限公司 44281 | 代理人: | 白雪瑾;郭燕 |
地址: | 518057 广东省深圳市南*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 跨模态 行人 识别 方法 装置 电子设备 存储 介质 | ||
1.一种跨模态行人重识别方法,其特征在于,包括:
获取含有行人的图像信息;
将所述含有行人的图像信息输入预先训练的神经网络中,得到行人的特征向量;所述预先训练的神经网络包括至少两个子神经网络,每个所述子神经网络对应输入含有行人的不同模态图像信息;
基于所述行人的特征向量对图像信息中的行人进行重识别。
2.如权利要求1所述的方法,其特征在于,所述预先训练的神经网络通过以下方式训练得到:
构建神经网络;
获取多模态训练图像数据集,所述多模态训练图像数据集包括至少两个模态的图像信息,所述至少两个模态的图像信息含有相同行人;
将所述多模态训练图像数据集输入所述神经网络中进行训练,其中每个模态的图像信息输入对应的所述子神经网络中。
3.如权利要求2所述的方法,其特征在于,所述将所述多模态训练图像数据集输入所述神经网络中进行训练包括:
将所述多模态训练图像数据集中每个模态的图像信息输入对应的子神经网络中,得到至少两个行人的特征向量;所述每个模态的图像信息包含有相同行人;
将所述至少两个行人的特征向量拼接为一个特征向量,计算该特征向量的交叉熵损失值、中心损失值和异质中心损失值;
基于所述特征向量的交叉熵损失值、中心损失值和异质中心损失值,确定所述神经网络的损失值,再基于所述神经网络的损失值,调节所述神经网络的网络参数;
重复将所述多模态训练图像数据集中每个模态的图像信息输入对应的所述子神经网络中,基于所述神经网络的损失值调节所述神经网络的网络参数,直至所述神经网络的损失值稳定且不再变小为止。
4.如权利要求3所述的方法,其特征在于,所述基于所述特征向量的交叉熵损失值、中心损失值和异质中心损失值,确定所述神经网络的损失值包括:
通过以下公式确定所述神经网络的损失值:
L=Lce+λ1*Lcenter+λ2*Lhc
其中,L为神经网络的损失值,Lce为交叉熵损失值,Lcenter为中心损失值,Lhc为异质中心损失值,λ1和λ2为系数。
5.一种跨模态行人重识别装置,其特征在于,包括:
图像获取模块,用于获取含有行人的图像信息;
特征提取模块,用于将所述含有行人的图像信息输入预先训练的神经网络中,得到行人的特征向量;其中,所述预先训练的神经网络包括至少两个子神经网络,每个所述子神经网络对应输入含有行人的不同模态图像信息;
行人重识别模块,用于基于所述行人的特征向量对图像信息中的行人进行重识别。
6.如权利要求5所述的装置,其特征在于,所述预先训练的神经网络通过以下方式训练得到:
构建神经网络;
获取多模态训练图像数据集,所述多模态训练图像数据集包括至少两个模态的图像信息,所述至少两个模态的图像信息含有相同行人;
将所述多模态训练图像数据集输入所述神经网络中进行训练,其中每个模态的图像信息输入对应的所述子神经网络中。
7.如权利要求6所述的装置,其特征在于,所述将所述多模态训练图像数据集输入所述神经网络中进行训练包括:
将所述多模态训练图像数据集中每个模态的图像信息输入对应的子神经网络中,得到至少两个行人的特征向量;所述每个模态的图像信息包含有相同行人;
将所述至少两个行人的特征向量拼接为一个特征向量,计算该特征向量的交叉熵损失值、中心损失值和异质中心损失值;
基于所述特征向量的交叉熵损失值、中心损失值和异质中心损失值,确定所述神经网络的损失值,再基于所述神经网络的损失值,调节所述神经网络的网络参数;
重复将所述多模态训练图像数据集中每个模态的图像信息输入对应的所述子神经网络中,基于所述神经网络的损失值调节所述神经网络的网络参数,直至所述神经网络的损失值稳定且不再变小为止。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳力维智联技术有限公司;南京中兴力维软件有限公司,未经深圳力维智联技术有限公司;南京中兴力维软件有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010737849.2/1.html,转载请声明来源钻瓜专利网。