[发明专利]一种基于多任务学习的变分图自动编码器方法在审
申请号: | 202111502928.6 | 申请日: | 2021-12-09 |
公开(公告)号: | CN114118416A | 公开(公告)日: | 2022-03-01 |
发明(设计)人: | 李晶慈;陆广泉 | 申请(专利权)人: | 广西师范大学 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/04;G06K9/62 |
代理公司: | 桂林市华杰专利商标事务所有限责任公司 45112 | 代理人: | 刘梅芳 |
地址: | 541004 广西壮*** | 国省代码: | 广西;45 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 任务 学习 变分图 自动 编码器 方法 | ||
本发明公开了一种基于多任务学习的变分图自动编码器方法,包括如下步骤:S1:对源数据进行预处理;S2:划分图数据集;S3:将S22获得的训练集输入浅层图卷积层获得浅层共享嵌入表示H;S4:将S3获得的浅层共享嵌入表示H分别输入两个不同的下游网络框架,获得各自的嵌入表示;S5:将S4获得的两个不同的嵌入表示分别进行链路预测任务和半监督节点分类任务。这种方法能使嵌入表示跟样本空间的真实分布更相近,在链路预测任务上具有很强的竞争力,鲁棒性强。
技术领域
本发明涉及计算机数据分析领域,具体是一种基于多任务学习的变分图自动编码器方法。
背景技术
随着深度学习技术的不断发展,越来越多复杂的应用场景不能使用简单的欧几里得数据进行表示,例如分子结构、推荐系统、引文网络和社交网络等。这些应用数据,即非欧几里得数据,可以使用图来表示。图数据中包括节点和边,节点具有自己的属性特征,且不同的节点具有不同数量的邻居节点。传统的卷积神经网络或者循环神经网络不能够用于表示图数据。近年来,图神经网络吸引了研究者们极大的注意力,相对于卷积神经网络和循环神经网络,图神经网络可以通过保留拓扑结构信息和节点特征信息,将节点特征嵌入到低维空间,具有很强的性能。其中,图自动编码器和变分图自动编码器是进行图无监督学习(链路预测、节点聚类、图生成)的有效框架。
然而,图数据的多任务学习并没有引起研究者们太多的关注。实际上,将多个相关任务放在一起学习可以提高任务的整体泛化能力。目前已有的基于多任务学习的图神经网络框架都是直接将学习到的共享表示作为下游任务的输入,这意味着不同的下游任务使用共同的嵌入表示来进行学习,并没有着重去学习单个任务特定的嵌入信息。实际上,不同任务使用共同的嵌入表示可能不利于各自任务的学习,因为这样学习到的共享嵌入表示可能也学习到了其他任务的噪声。
发明内容
本发明的目的是针对现有技术的不足,而提供一种基于多任务学习的变分图自动编码器方法。这种方法能使嵌入表示跟样本空间的真实分布更相近,在链路预测任务上具有很强的竞争力,鲁棒性强。
实现本发明目的的技术方案是:
一种基于多任务学习的变分图自动编码器方法,包括如下步骤:
S1:对源数据进行预处理,具体过程为:
S11:将引文网络中的源数据处理成图数据G=(V,E),V为节点集,E为边集,假设引文网络中的一篇论文视为图中的一个节点,论文的作者、研究方向视为节点的特征,论文与被引用论文之间建立一条连接的无向边,论文所属的类别视为标签,由此一个引文网络构成一个图数据集;
S12:利用S11中获得的图数据集,得到图对应的度矩阵和邻接矩阵、特征矩阵;
S2:划分图数据集,具体过程为:
S21:将图数据集中部分数据进行掩码设置来进行半监督学习;
S22:将S12获得的矩阵中的数据划分为训练集、验证集和测试集;
S3:将S22获得的训练集输入浅层图卷积层获得浅层共享嵌入表示H,即将邻接矩阵和特征矩阵输入浅层图卷积层,通过消息传播机制H=σ(AXW),其中A是邻接矩阵,X是节点特征矩阵,W是可学习的参数矩阵,σ是激活函数,以聚合当前邻居节点的特征信息和拓扑结构信息来更新当前节点的特征信息,从而获得浅层共享嵌入表示H;
S4:将S3获得的浅层共享嵌入表示H分别输入两个不同的下游网络框架,获得各自的嵌入表示,具体过程为:
S41:将S3获得的浅层共享嵌入表示H输入用于链路预测的图卷积网络中,获得嵌入表示Z_mean和Z_log;
S42:将Z_mean和Z_log利用高斯分布进行相加,获得符合高斯分布的嵌入表示Z;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广西师范大学,未经广西师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111502928.6/2.html,转载请声明来源钻瓜专利网。