[发明专利]基于半监督对抗生成网络的迁移检索方法有效
申请号: | 201810689362.4 | 申请日: | 2018-06-28 |
公开(公告)号: | CN108959522B | 公开(公告)日: | 2022-06-17 |
发明(设计)人: | 何霞;汤一平;王丽冉;陈朋;袁公萍 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06F16/583 | 分类号: | G06F16/583;G06V10/74;G06K9/62 |
代理公司: | 杭州斯可睿专利事务所有限公司 33241 | 代理人: | 王利强 |
地址: | 310014 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 监督 对抗 生成 网络 迁移 检索 方法 | ||
一种基于半监督对抗生成网络的迁移检索方法,通过设计对抗生成网络进行跨数据域的哈希检索,其目标是将原始数据集和目标数据集映射到一个共同的汉明空间,使得在一个特定场景中图像检索通过半监督对抗生成网络的学习可迁移到另一场景的检索图像中,从而解决大数据时代下无法充分利用未标记的数据和检索模型只适合单一场景的问题。本发明有效提高图像检索的自动化和智能化水平。
技术领域
本发明涉及计算机视觉、模式识别、对抗生成网络、迁移检索、循环一致性、深度自编码卷积神经网络和深度学习技术在图像检索领域的应用,尤其涉及一种基于半监督对抗生成网络的迁移检索方法。
背景技术
在web2.0时代,每日产生海量的图像、文本、音频数据,如何在这些浩瀚且无标注的数据中快速、准确地查询用户需要或感兴趣的图像,成为多媒体信息检索领域研究的热点。随着人工智能的不断发展,卷积神经网络的层数不断加深,无论图像数据、文本数据、音频数据都可通过训练,使其能将大量的有标签数据中学习到精准的从输入到输出的映射。
迁移学习的目的是将从一个场景中学到的知识用来解决另一个场景中的任务。在现实生活中存在一些特定的应用,比如行人重识别问题,重识别任务旨在搜索查询的相关图像,在某些情况下,原始数据域充分注释,具有ID标签,但是因为昂贵的标记过程和当在一个数据集上训练的模型直接在另一个数据集上使用时,由于数据集的原因,重新识别的准确性急剧下降。因此,当前的完全监督的单域re-ID方法在现实世界的场景中可能会受到限制,而在这些场景中,特定域的标签是不可用的。比如车辆的跨数据域检索问题,当在某个场景下训练好的模型使用到另一场景时,车辆检索变得不可信。
综上所述,目前的检索任务主要存在以下局限:1)大数据时代的海量数据,严重依赖人工标记数据难以获取大规模的有标签训练数据;2)如何训练一个模型使其能应用于不同环境;3)如何构建一种网络实现跨数据域的智能和快速的车辆检索;4)如何通过训练网络模型使得相似图像之间的距离减小,不相似图像之间的距离增大;
发明内容
为了克服现有的图像检索技术中需要依靠大量的人工标注数据、对已存在的检索模型只适合单一场景、没有有效利用海量未标注数据的不足,本发明提出了一种基于半监督对抗生成网络的迁移检索方法,通过设计一种新颖的对抗生成网络进行跨数据预的哈希检索,如不同数据库下、摄像头下或不同场景下数据,其目标是将原始数据集和目标数据集映射到一个共同的汉明空间;利用循环一致网络保持相似图像之间的相似性,并加入边缘超参数,使得相似图像之间的距离减小,不相似图像之间的距离增大;从而实现跨数据域的智能和快速的图像检索满足大数据时代背景下的图像检索需求。
为了解决上述技术问题,本发明提供如下的技术方案:
一种基于半监督对抗生成网络的迁移检索方法,包括以下步骤:
1)构建对抗生成网络进行跨数据模式下的哈希检索,如不同数据库下、摄像头下或不同场景下数据,其目标是将原始数据集和目标数据集映射到一个共同的汉明空间,从而实现跨空间域的智能和快速的图像检索;
2)利用步骤1)中适用于迁移检索的对抗生成网络,生成模型从原始数据集和目标数据集随机选取数据对并生成最有利于标记的数据对,判别模型用于区分生成模型选出的数据对是否为真实相似的数据对;
3)利用循环一致网络保持相似图像之间的相似性;
4)根据步骤2)中的判别模型加入边缘超参数,使得相似图像之间的距离减小,不相似图像之间的距离增大;
5)在训练判别模型的阶段固定生成模型的参数,反之,在训练生成模型的阶段固定判别模型的参数;
6)利用步骤5)中得到的判别模型提取检索需要的特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810689362.4/2.html,转载请声明来源钻瓜专利网。