[发明专利]一种基于离散梯度反向传播的图像检索方法有效
申请号: | 201910974197.1 | 申请日: | 2019-10-14 |
公开(公告)号: | CN110795591B | 公开(公告)日: | 2022-07-22 |
发明(设计)人: | 苏勤亮;黄晓娜 | 申请(专利权)人: | 中山大学 |
主分类号: | G06F16/583 | 分类号: | G06F16/583;G06N3/04;G06N3/08 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 离散 梯度 反向 传播 图像 检索 方法 | ||
1.一种基于离散梯度反向传播的图像检索方法,其特征在于,包括以下步骤:
S1:构建图像间的语义相似度矩阵S;
S2:构建卷积神经网络架构,卷积神经网络架构包含卷积子网络、全连接层、阈值化层、损失层,卷积子网络中的每个卷积层后都加一个最大池化层;
S3:利用训练样本集对神经网络进行训练,在训练过程中,用梯度估计量估计神经网络中量化过程中不可求导的梯度值;
S4:在测试过程中,从测试样本集选择一张查询图像xv,通过深度神经网络得到其对应的编码bv;使用公式dvi=bv,bi计算查询样本到训练集的第i个样本的汉明距离,先对计算得到的汉明距离按照从小到大的顺序进行排序,最后,将距离最小的前K个图像特征对应的图像作为检索结果返回;
所述步骤S1的具体过程是:
将图像数据集中的部分图像作为训练样本集,剩下的图像作为测试样本集,根据训练样本集和测试样本集中图像的标签信息,构建出图像间的语义相似度矩阵S;
所述步骤S2的具体过程是:
S21:卷积子网络的网络结构共有3 个卷积层,分别表示为“Conv1-Conv3”;第一个卷积层Conv1用92个大小为5×5×3的卷积核对大小为32×32×3的输入图像以1像素为步长进行过滤;再经过线性修正单元的激活、最大池化得到输出特征;第二个卷积层Conv2以第一个卷积层Conv1的输出作为输入,Conv2用92个大小为5×5×92的卷积核对输入进行过滤;在经过线性修正单元、最大池化之后,得到输出特征;第三个卷积层Conv3使用了64个大小3×3×92的卷积核,再经过线性修正单元的激活、最大池化得到输出特征;
S22:全连接层有三层,分别表示为“Fc4-Fc6”;全连接层Fc4的神经元个数为384,使用的线性修正单元函数作为激活函数;Fc4的神经元个数为192,并且用线性修正单元函数作为Fc4层的激活函数,Fc5的神经元个数为64,并且用sigmoid函数作为Fc5层的激活函数,得到64位实值特征;
S23:第i个训练图像xi在经过步骤S21和步骤S22后可得到深度特征表示其中θ表示卷积子网络和全连接层的参数集合,再对特征ui进行量化;
S24:构建相似性保持损失函数,即保证同一标签的图像的哈希码的距离小,不同标签的图像的哈希码的距离大,对于每一对二进制哈希码bi,bj,它们的汉明距离distH(·,·)与内积·,·之间存在良好的关系:m为生成的哈希码的位数,给定N副训练图像的成对相似度标签S={sij},对于哈希码B=[b1,…,bn]的最大似然估计为:
其中p(sij|bi,bj)是给定哈希码bi和bj的相似性标签sij的条件概率,定义为成对logistic函数:
其中
将(2)、(3)代入(1)中可得优化问题为:
令则L为损失函数。
2.根据权利要求1所述的基于离散梯度反向传播的图像检索方法,其特征在于,所述步骤S23中,对特征ui进行量化的具体过程是;
具体过程为:令其中,I是关于ui和z~U[0,1]的指示函数,指示函数的定义为:即再通过一个线性函数bi=2hi-1,将xi的二进制码bi的取值范围转换成{-1,1},即对应的量化函数为
3.根据权利要求2所述的基于离散梯度反向传播的图像检索方法,其特征在于,所述步骤S3的具体过程是:
首先计算损失函数L对bi的导数如下:
其中
关于离散随机变量hi对ui的导数,考虑当z≠ui时,在ui附近存在一个邻域,使得hi的输出不变,即导数为0,因此不能通过反向传播进行训练,通过估计期望损失的导数来解决这个问题,而不是计算单个试验结果的导数,因为在任何给定的试验中,只能看到给定z时的损失值,不知道在另一种随机变量z下损失会是多少,因此只能估计这个导数,在这里采用ST估计量的做法,即用恒等函数的导数替代得到:
通过反向传播算法更新神经网络中的参数θ。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910974197.1/1.html,转载请声明来源钻瓜专利网。