[发明专利]基于多尺度行人轮廓分割融合的行人重识别方法在审
申请号: | 202010360873.9 | 申请日: | 2020-04-30 |
公开(公告)号: | CN111582126A | 公开(公告)日: | 2020-08-25 |
发明(设计)人: | 王慧燕;陈海英;陶家威 | 申请(专利权)人: | 浙江工商大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/62;G06N3/04 |
代理公司: | 杭州奥创知识产权代理有限公司 33272 | 代理人: | 王佳健 |
地址: | 310018 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 尺度 行人 轮廓 分割 融合 识别 方法 | ||
1.基于多尺度行人轮廓分割融合的行人重识别方法,其特征在于该方法包括如下步骤:
步骤(1)、数据预处理
获取足够数量的样本图像,并对样本图像进行归一化处理,得到数据集;
步骤(2)、提取图像的全局特征和行人的轮廓特征
将数据集输入至行人全局特征提取网络,得到图像的全局特征;
将数据集输入至多尺度行人轮廓分割网络,得到行人的轮廓特征;
所述的多尺度行人轮廓分割网络采用ImageNet上预训练得到的ResNet作为它的主要特征提取网络,并且在此网络基础上,为多尺度的特征学习添加了一个新残差块,这个新残差块使用空洞卷积来替代普通的卷积;
所述的新残差块的顶部采用可获取不同行人人体轮廓尺度信息的空洞空间金字塔池化;
步骤(3)、将全局特征与轮廓特征输入行人重识别网络进行融合;
步骤(4)、采用标签平滑损失函数对行人重识别网络进行训练,使得网络参数最优,具体是:
根据InceptionResNetv2在ImageNet数据库上进行训练得到一个预训练网络,然后将全局特征和轮廓特征融合产生的特征向量输入到标签平滑损失函数中,并利用反向传播算法对行人重识别网络的参数进行训练,直至整个网络收敛;
步骤(5)、针对行人重识别数据集中包含的查询集和候选集,计算查询集中指定对象和候选集中的每一个对象的欧式距离,接着对所计算得到的距离进行升序排序,获得行人重识别的排序结果。
2.根据权利要求1所述的基于多尺度行人轮廓分割融合的行人重识别方法,其特征在于:步骤(1)中的预处理具体是:设定输入图像尺寸,如果样本图像大于该尺寸,则进行随机裁剪得到;如果样本图像小于该尺寸小,则进行等比例放大后再裁剪得到。
3.根据权利要求1所述的基于多尺度行人轮廓分割融合的行人重识别方法,其特征在于:所述的新残差块的空洞卷积通过深度卷积神经网络控制特征的像素,调节卷积核的视觉域以获取多尺度的信息,每个空洞卷积使用不同的扩张率来捕捉多尺寸的语境信息。
4.根据权利要求1所述的基于多尺度行人轮廓分割融合的行人重识别方法,其特征在于:所述的空洞空间金字塔池化使用不同的扩张率的空洞卷积来对任意尺度的区域进行分类。
5.根据权利要求4所述的基于多尺度行人轮廓分割融合的行人重识别方法,其特征在于:所述的空洞空间金字塔池化包括两个部分:多尺度空洞卷积和图像级特征;
所述的多尺度空洞卷积包括,1x1的普通卷积,3x3空洞率为6的空洞卷积,3x3空洞率为12的空洞卷积,3x3空洞率为18的空洞卷积;
所述的图像级特征,对输入在[1,2]维上求均值,经过的普通卷积,再使用线性差值转换到输入图像的大小,最后将四个卷积和图片特征连接起来,再经过一个卷积得到网络的输出。
6.根据权利要求1所述的基于多尺度行人轮廓分割融合的行人重识别方法,其特征在于:步骤(3)采用按点逐位相加的方式进行全局特征与轮廓特征的融合。
7.根据权利要求6所述的基于多尺度行人轮廓分割融合的行人重识别方法,其特征在于:步骤(3)中当两个特征具有不同维度时,则通过线性变换转换成同维向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工商大学,未经浙江工商大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010360873.9/1.html,转载请声明来源钻瓜专利网。