[发明专利]基于相互学习的图卷积神经网络节点分类方法、存储介质和终端有效
申请号: | 202011540958.1 | 申请日: | 2020-12-23 |
公开(公告)号: | CN112613559B | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 匡平;高宇;李凡;彭江艳;黄泓毓;段其鹏;刘晨阳 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06F18/2415 | 分类号: | G06F18/2415;G06N3/0464;G06N3/042;G06N3/09;G06N3/047 |
代理公司: | 成都华风专利事务所(普通合伙) 51223 | 代理人: | 张巨箭 |
地址: | 610000 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 相互 学习 图卷 神经网络 节点 分类 方法 存储 介质 终端 | ||
本发明公开了基于相互学习的图卷积神经网络节点分类方法、存储介质和终端,方法包括以下步骤:将待分类数据输入训练后的相互学习网络,得到节点分类结果;所述相互学习网络包括的训练以下子步骤:利用损失函数Lk,对包括三个及以上的学生网络的相互学习网络进行训练;所述损失函数Lk包括自身交叉熵损失函数和KL损失函数。本发明采用数量大于2的学生网络,优点在于可以减小过拟合情况,提高模型准确率;相比于数量2的学生网络,模型鲁棒性更强。
技术领域
本发明涉及神经网络领域,尤其涉及基于相互学习的图卷积神经网络节点分类方法、存储介质和终端。
背景技术
图数据具有不规则和多变的数据结构,用来表示各个对象以及它们之间的相互关系,它可以应用于社交网络、交通网络和生物化学分子网络等众多领域。图数据表示已成为一个日益热门的研究领域。图神经网络是基于深度学习技术最流行的图表示方法,尤其是图卷积网络方法将卷积运算从传统图像数据推广到图数据,已显示出显著的学习能力。
相互学习并不需要先前强大的“教师”网络,只需要一组学生网络即可有效的训练,并且结果要强于有“教师”指导的网络,但现有的相互学习网络的数量通常为两个,但是采用该方式会使得数据并不准确。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本发明的目的在于克服现有技术的不足,提供基于相互学习的图卷积神经网络节点分类方法、存储介质和终端。
本发明的目的是通过以下技术方案来实现的:
本发明的第一方面,提供基于相互学习的图卷积神经网络节点分类方法,包括以下步骤:
将待分类数据输入训练后的相互学习网络,得到节点分类结果;所述相互学习网络包括的训练以下子步骤:
利用损失函数Lk,对包括三个及以上的学生网络的相互学习网络进行训练;所述损失函数Lk包括自身交叉熵损失函数和KL损失函数;所述损失函数包括:
式中,N表示学生网络的数量,k表示第k个学生网络,l表示除开第k个学生网络以外的学生网络,DKL(pl||pk)表示第k个学生网络相对第l个学生网络的KL损失,pl表示第l个学生网络的预测输出,pk表示第k个学生网络的预测输出;κ用于控制KL损失的权重,κ<1。
进一步地,所述KL损失函数具体为:
式中,M表示学生网络输入中的标签label中类别的数量,表示学生网络l预测节点xi属于类别m的概率,也就是该网络的输出。
进一步地,所述自身交叉熵损失函数具体为:
式中,M表示学生网络输入中的标签label中类别的数量,表示学生网络k预测节点xi属于类别m的概率,yi表示该学生网络对第i个节点所属类别的预测值,信号函数
进一步地,所述学生网络的输入包括P、X和label;X表示节点自身的特征,label表示所属的类别;
其中,构建一个Q×Q维的矩阵P,P中第i行第j的值mij表示图中第i个和j个节点的连接状态,若两个节点为边连接则mij为1,若两个节点没有边连接则mij为0,其中,i=1,2……N,j=1,2……N;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011540958.1/2.html,转载请声明来源钻瓜专利网。