[发明专利]一种基于深度多损失融合模型的行人重识别方法在审
申请号: | 201910177443.0 | 申请日: | 2019-03-09 |
公开(公告)号: | CN110008842A | 公开(公告)日: | 2019-07-12 |
发明(设计)人: | 郑思佳;黄德双;赵仲秋;赵新勇;孙建宏;赵阳;林拥军 | 申请(专利权)人: | 同济大学;合肥工业大学;北京易华录信息技术股份有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/36;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 叶敏华 |
地址: | 200092 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及一种基于深度多损失融合模型的行人重识别方法,该方法使用深度学习技术,对训练集图片进行翻转、裁剪、随机擦除以及风格迁移等预处理操作,然后经过基本网络模型进行特征提取,在使用多个损失函数进行融合联合训练网络,与基于深度学习的行人重识别算法相比较,本发明因采用多种预处理方式、三种损失函数的融合以及有效的训练策略,大大提高了在数据集上行人重识别的性能,一方面,多种预处理方式可以扩展数据集,提高模型泛化能力,避免过拟合情况的发生,另一方面,三种损失函数各有自己的优缺点,当对其进行有效结合时,使得所使用的模型能够获取更好的识别结果。 | ||
搜索关键词: | 损失函数 融合 预处理方式 预处理操作 方法使用 基本网络 扩展数据 特征提取 训练网络 有效结合 数据集 训练集 翻转 擦除 拟合 裁剪 算法 迁移 学习 风格 联合 图片 | ||
【主权项】:
1.一种基于深度多损失融合模型的行人重识别方法,其特征在于,该方法包括下列步骤:1)获取行人原始图片数据集,将原始图片数据集划分训练集和测试集,并将测试集分为查询集和候选集;2)对训练集的图片数据依次进行翻转、加噪声、自动裁剪、随机擦除、跨域风格迁移的数据预处理过程,预处理完成后进行数据扩充;3)选取基准网络模型,对基准网络模型进行训练,更新权重,优化网络,并对基准网络的超参数进行调整;4)将步骤2)处理得到的训练集图片数据输入优化及调整后的基准网络模型中进行特征提取;5)对提取出的特征分别两两计算欧式距离,并对计算的欧式距离进行排序,在候选集中选取与查询集中目标距离最近的图片作为识别结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学;合肥工业大学;北京易华录信息技术股份有限公司,未经同济大学;合肥工业大学;北京易华录信息技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910177443.0/,转载请声明来源钻瓜专利网。