[发明专利]一种基于自适应图学习的图嵌入方法在审
申请号: | 202110010713.6 | 申请日: | 2021-01-06 |
公开(公告)号: | CN112862064A | 公开(公告)日: | 2021-05-28 |
发明(设计)人: | 张睿;李学龙;张运星 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06F16/901 |
代理公司: | 西北工业大学专利中心 61204 | 代理人: | 金凤 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 自适应 学习 嵌入 方法 | ||
1.一种基于自适应图学习的图嵌入方法,其特征在于,包括以下步骤:
步骤1:构建图自编码器框架;
步骤1-1:当原始数据中包含邻接矩阵时将数据特征矩阵X和邻接矩阵A作为图自编码器的输入;当原始数据中不存在邻接矩阵时,通过自适应学习机制利用原始特征信息初始化邻接矩阵A,然后再将数据特征矩阵X和邻接矩阵A输入到图自编码器中;
步骤1-2:图编码过程;
采用两层卷积神经网络作为图编码器进行卷积处理;
第一层卷积神经网络采用Relu函数作为激活函数,第二层卷积神经网络采用线性激活函数;卷积神经网络统一表示为:
其中,l为卷积神经网络层数,为正则化后的邻接矩阵I为单位矩阵,W(l)为卷积神经网络权重,为正则化邻接矩阵的度矩阵,且满足为度矩阵的对角元素,为矩阵的第i行第j列元素;
Z(l)为生成的潜在表示,第一层生成的潜在表示Z(1)和第二层生成的潜在表示Z(2)分别为:
Z(1)=fRelu(X,A∣W(0)) (2)
Z(2)=flinear(Z(1),A∣W(1)) (3)
其中fRelu代表使用Relu激活函数,flinear代表线性层,W(0)和W(1)分别为卷积神经网络第一层和第二层的权重;Z(0)=X,代表初始的的数据特征矩阵;
步骤1-3:图解码过程;
图解码器采用sigmoid作为激活函数,重构后的邻接矩阵表示为:
图解码器部分中的邻接矩阵重构损失表示为:
其中⊙代表Hadamard乘积,B为权重矩阵,其计算方式为:B=A*β+1,β为权重参数,表示图自编码器框架部分的损失函数;
步骤2:拉普拉斯图结构;
步骤2-1:定义拉普拉斯图结构表示为:
其中对角矩阵D为数据矩阵A的度矩阵,表示为:dii=∑jaij,dii为度矩阵的对角元素,aij为矩阵A的元素;
步骤2-2:拉普拉斯嵌入;
将潜在表示嵌入到拉普拉斯图结构中,则拉普拉斯图结构部分的损失函数为:
其中Z=Z(2),tr代表矩阵的迹,γ为自适应学习参数其中代表向量的2范数,且hij按照从小大顺序排列;
步骤2-3:定义整体损失函数表示为:
其中正则化项
步骤3:邻接矩阵的自适应学习;
步骤3-1:通过利用生成的潜在表示Z(2),由式(9)生成新的邻接矩阵AL:
式(9)是式(7)取最小值求解得到的;计算得到的aij即重构后的邻接矩阵AL的第i行第j列元素;
步骤3-2:邻接矩阵的节点邻居数量k服从于正态分布,正态分布的均值为邻接矩阵上一轮迭代中节点邻居数量的平均值uk,正态分布的方差为1,即
步骤3-3:邻接矩阵的部分更新表示为:
A=αAL+(1-α)A0 (10)
其中,α代表调和参数,A0代表初始邻接矩阵;
步骤4:迭代更新求解;
采用梯度下降法进行更新,总损失函数为式(8),采用Adam更新器迭代;最大迭代次数为T,迭代次数t满足0≤t≤T;当0≤t≤τ时,邻接矩阵自适应更新,当τt时,邻接矩阵不再更新;
最终求解结果得到图结构邻接矩阵A和特征矩阵X的潜在表示Z。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110010713.6/1.html,转载请声明来源钻瓜专利网。