[发明专利]一种层次化深度图卷积网络的训练方法在审
申请号: | 202111102875.9 | 申请日: | 2021-09-15 |
公开(公告)号: | CN115828996A | 公开(公告)日: | 2023-03-21 |
发明(设计)人: | 李舒;刘庆云;周舟;杨威;张宏飞;杨嵘;杜梅婕;李钊 | 申请(专利权)人: | 中国科学院信息工程研究所 |
主分类号: | G06N3/0464 | 分类号: | G06N3/0464;G06N3/08 |
代理公司: | 北京君尚知识产权代理有限公司 11200 | 代理人: | 司立彬 |
地址: | 100093 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 层次 深度 图卷 网络 训练 方法 | ||
1.一种层次化深度图卷积网络的训练方法,其特征在于,包括如下步骤:
1)将目标领域的图中的节点特征输入待训练的层次化深度图卷积网络;
2)每次迭代训练时,计算邻接矩阵A的对称归一化邻接矩阵度矩阵D是对角阵,对角上的元素为图中各个顶点的度,图中顶点vi的度表示图中和该顶点相连的边的数量;
3)判断当前迭代次数k是否小于设定迭代次数K,若k小于K,则进行步骤4),否则结束训练;
4)计算该层次化深度图卷积网络第k+1次迭代训练后输出的节点嵌入Zk+1,然后根据Zk+1计算该层次化深度图卷积网络第k+1次迭代训练后输出的各节点的类别predk+1;
5)采用predk+1和节点真实标签的交叉熵作为损失函数,对该层次化深度图卷积网络的参数矩阵进行参数优化,迭代次数加一,返回步骤3)。
2.如权利要求1所述的训练方法,其特征在于,Zk+1=σ(ASZkWk),predk+1=Softmax(ASZk+1W);其中,Wk为第k次迭代中该层次化深度图卷积网络的参数矩阵,σ为非线性激活操作,Softmax为最后一层分类器的激活函数,W为最后一层分类器的参数矩阵。
3.如权利要求1所述的训练方法,其特征在于,predk+1=Softmax(ASZk+1W);其中,Wk为第k次迭代中待训练层次化深度图卷积网络的参数矩阵,为串联操作,F为非线性激活操作,Softmax为最后一层分类器的激活函数,W为最后一层分类器的参数矩阵。
4.如权利要求1所述的训练方法,其特征在于,predk+1=Softmax(ASZk+1W);其中,Z0是该层次化深度图卷积网络中节点的初始特征,Wk为第k次迭代中待训练层次化深度图卷积网络的参数矩阵,为串联操作,F为非线性激活操作,Softmax为最后一层分类器的激活函数,W为最后一层分类器的参数矩阵。
5.如权利要求1所述的训练方法,其特征在于,Zk+1=F(Y,Wk),predk+1=Softmax(ASZk+1W);其中,Z0是该层次化深度图卷积网络中节点的初始特征,Wk为第k次迭代中待训练层次化深度图卷积网络的参数矩阵,F为非线性激活操作,为串联操作,Y由前k-1次迭代训练后的节点嵌入级联后得到,Softmax为最后一层分类器的激活函数,W为最后一层分类器的参数矩阵。
6.如权利要求1~5任一所述的训练方法,其特征在于,根据训练后的层次化深度图卷积网络的光滑度辅助判断所述训练方法是否产生过平滑;所述平滑度的计算方法为:首先计算层次化深度图卷积网络中节点i的光滑度然后计算整个层次化深度图卷积网络的光滑度其中,zi为节点i的特征向量表示,zj为节点j的特征向量表示,zik为节点i特征向量的第k维,zjk为节点j特征向量的第k维,d为节点特征向量的总维数,N为层次化深度图卷积网络中节点总数,V为层次化深度图卷积网络中节点集合,exp(-γdistance(zi,zj))是高斯核函数,γ为高斯核函数的超参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院信息工程研究所,未经中国科学院信息工程研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111102875.9/1.html,转载请声明来源钻瓜专利网。