[发明专利]一种基于深度对抗离散哈希学习的跨模态检索方法及装置在审
申请号: | 202010225616.4 | 申请日: | 2020-03-26 |
公开(公告)号: | CN111597298A | 公开(公告)日: | 2020-08-28 |
发明(设计)人: | 白琮;曾超;马青;张敬林;陈胜勇 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06F16/33 | 分类号: | G06F16/33;G06F16/35;G06F16/53;G06F16/55;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 杨天娇 |
地址: | 310014 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 对抗 离散 学习 跨模态 检索 方法 装置 | ||
本发明公开了一种基于深度对抗离散哈希学习的跨模态检索方法及装置,由三层全连接层构成图像网络,由四层全连接层构成文本网络,最后的哈希值由tanh函数激活得到。通过两个网络的对抗训练能够保证两个模态的特征表达趋于一致,由一个待权重的余弦三元组损失函数保证语义相似性,同时也保证了相似样本的相关度排序性,在优化的过程中维持哈希值的离散性,减小了量化误差,最终得到两个个鲁棒的保持语义相似性、减小异构鸿沟和累计误差较小的哈希函数。本发明利用对抗训练、保持语义相似性及相关度排序性来学习哈希函数,不仅提高了检索的精度,而且使得到的哈希学习方法具有了更强的语义学习能力。
技术领域
本发明涉及计算机视觉领域的图像大数据处理与分析以及自然语言的处理与分析技术领域,特别涉及一种基于深度对抗离散哈希学习的跨模态检索方法及装置。
背景技术
随着现代网络技术的发展,大量的多模态数据每天在人们的日常生活中生成,包括文本,音频,视频和图像。同时,从如此大量的多模态数据中进行有效检索已成为一个巨大的挑战,其中图像到文本和文本到图像的检索是最广泛研究的。基于哈希学习的检索由于其高效性及存储的便捷性被广泛应用于各种检索任务中。哈希学习通过学习到最优的哈希函数,在尽可能保证原始空间内数据之间的相似度的前提下,将高维数据映射为二值码。
但由于二值化离散优化是NP问题,而很多方法采用宽松的条件使用连续值进行优化,优化后再把连续值取整为二值码。在这种宽松的条件下会导致巨大的量化误差、优化不稳定等问题。
发明内容
本申请的目的是提供一种基于深度对抗离散哈希学习的跨模态检索方法及装置,在图像模态和文本模态中利用多层神经网络构造特征重构网络以及非线性哈希函数,并且在两个模态间设计了分布式的判别器进行对抗训练。在保证哈希码离散型前提下设计了目标函数,通过优化该目标函数得到哈希函数。哈希函数将目标数据特征(图像和文本)转换为二值码,检索时利用二值码进行跨模态检索。
一种基于深度对抗离散哈希学习的跨模态检索方法,包括:
构建用于哈希学习的神经网络模型,所述神经网络模型包括图像网络和文本网络,所述图像网络和文本网络分别包括依次连接的特征函数层、哈希函数层和符号函数层,其中,所述特征函数层包括多个全连接层和各个全连接层后的ReLU激活函数,所述哈希函数层包括一个全连接层和tanh激活函数,所述符号函数层对哈希函数层的输出做符号函数运算来得到哈希码;
采用加权余弦三元组损失函数、对抗损失函数、分类损失函数、量化损失函数构建所述神经网络模型的整体目标函数;
获取训练数据,对所述神经网络模型进行训练,直到整体目标函数收敛;
获取待检索的图像或文本,采用训练好的所述神经网络模型进行学习,获取对应的哈希码。
进一步的,所述图像网络的特征函数层包括两层全连接层,每个全连接层后加ReLU激活函数;所述文本网络的特征函数层包括三层全连接层,每个全连接层后加ReLU激活函数。
进一步的,所述加权余弦三元组损失函数为:
其中m为边界常数,ω(rj,rk)是权重因子,rj代表第j个查询结果与查询之间的相似度,rk代表第k个查询结果与查询之间的相似度,cos(.)是余弦函数,代表了图像网络哈希函数层的第i个输出,代表与查询图像不相关的文本网络哈希函数层第k个输出,代表与查询图像相关的文本网络哈希函数层第j个输出,代表了文本网络哈希函数层的第i个输出,代表与查询文本不相关的图像网络哈希函数层第k个输出,代表与查询文本相关的图像网络哈希函数层第j个输出,代表了当查询目标是图像时的加权余弦三元组损失函数,代表了当查询目标是文本时的加权余弦三元组损失函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010225616.4/2.html,转载请声明来源钻瓜专利网。