[发明专利]一种改善大型图卷积神经网络的训练效率的方法在审
申请号: | 202011528818.2 | 申请日: | 2020-12-22 |
公开(公告)号: | CN112651488A | 公开(公告)日: | 2021-04-13 |
发明(设计)人: | 刘阳 | 申请(专利权)人: | 四川长虹电器股份有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 四川省成都市天策商标专利事务所 51213 | 代理人: | 胡慧东 |
地址: | 621000 四*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 改善 大型 图卷 神经网络 训练 效率 方法 | ||
1.一种改善大型图卷积神经网络的训练效率的方法,其特征在于,包括以下步骤:
(1)划分图结构:将大规模深度图卷积神经网络对应的图像结构分为若干个区域;
(2)训练图神经网络:使用数据训练图神经网络并进行训练迭代。
2.根据权利要求1所述的改善大型图卷积神经网络的训练效率的方法,其特征在于,所述步骤(1)具体包括以下步骤:
第一步、简化图结构,通过合并部分顶点和边,将该部分用一个节点代替,从而减小图的节点和边的数目,这个步骤包含多个迭代的过程;
第二步、划分图结构,对简化后的图结构划分;
第三步、细化图结构,通过采取简化阶段的逆操作,将图神经网络结构还原。
3.根据权利要求2所述的改善大型图卷积神经网络的训练效率的方法,其特征在于,所述简化图结构具体为:对节点进行匹配,匹配的原则是各匹配的区域之间不关联,即一个节点只能属于一个匹配区域;以随机顺序遍历图神经网络的节点,假设从u开始,如果u还未与其他顶点相匹配,那么在u的邻接顶点中选择一个同样未与其它顶点匹配的顶点v,将未匹配的顶点u和与它相邻的未匹配的顶点v相互匹配;如果u没有可以匹配的邻接顶点,那么顶点u保持未匹配状态;然后将已经匹配的两个合并为一个顶点,未匹配的顶点保留,这些顶点构成一次粗化后的图,传入下一级进行处理;重复这一过程,直到原图节点被简化为数百个。
4.根据权利要求2所述的改善大型图卷积神经网络的训练效率的方法,其特征在于,所述划分图结构具体为:计算划分后的图Pm的Laplacian矩阵Q=D-A,并得到该矩阵第二大特征值对应的特征向量y;顶点集Vm按如下策略被分为两个部分,找到y向量的第i个元素并表示为r,当yi≤r时,设置P[j]=1;对其他的顶点,设置P[j]=2;选择r的值作为yi值的加权中位数,以便将Vm大致分为两个相等的部分;对二分后得到的子图继续使用这样的策略划分,最后将粗化后的图分为c个分区。
5.根据权利要求4所述的改善大型图卷积神经网络的训练效率的方法,其特征在于,Laplacian矩阵计算表达式为Q=D-A;其中,矩阵D为图像的度矩阵,Di,i的值为节点与节点i相连的边的数目,可表示为di,i=∑ew(vi,vj),其中(vi,vj)∈Em;矩阵A为图像的邻接矩阵,当节点i与节点j相连时,Ai,j的值为1,反之为0。
6.根据权利要求2所述的改善大型图卷积神经网络的训练效率的方法,其特征在于,所述细化图结构具体为:粗化图像Gm二分后得到的Pm通过一系列细化过程,依次得到的图形可表示为Gm-1,Gm-2,...,G1;因为Gi+1的每个顶点都包含顶点的一个独立子集,要从Pi+1中获得Pi,只需简单地将合并为v∈Gi+1的顶点集Viv分配到分区Pi+1[v]中即可,分配后该区域就表示为Pi[u],用等式表示就是:Pi[u]=Pi+1[v],
7.根据权利要求1所述的改善大型图卷积神经网络的训练效率的方法,其特征在于,所述训练图神经网络具体包括以下步骤:
第一步:从c个分组中随机选择q个分组组成一个batch,q的数目小于c,且每个迭代q个分组不一样;
第二步:将选取的q个分组组成子图其节点表示为[Vt1,Vt2,...,Vtq],节点之间的联系表示为矩阵;
第三步:使用随机梯度下降损失函数计算子图的损失,执行反向传播。损失的梯度值在反向传播的过程中用于更新权值W;完成所有迭代后,得到各层的权值网络训练完成。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川长虹电器股份有限公司,未经四川长虹电器股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011528818.2/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种发酵饲料生产工艺
- 下一篇:一种七自由度机器人的运动学反解方法