[发明专利]一种基于梯度的图神经网络可解释性分析方法在审
申请号: | 201911069788.0 | 申请日: | 2019-11-06 |
公开(公告)号: | CN110826699A | 公开(公告)日: | 2020-02-21 |
发明(设计)人: | 谢尚晟;鲁鸣鸣;李婷 | 申请(专利权)人: | 中南大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 410083 湖南*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 梯度 神经网络 解释性 分析 方法 | ||
本发明公开了一种基于梯度的图神经网络可解释性分析方法。本发明方法通过向训练好参数的神经网络输入图结构数据,递归计算图神经网络输出与输入之间所有前向传播路径的梯度,根据梯度解释各个输入节点对各个输出节点的影响大小。本发明作为梯度可解释性方法在图神经网络上的一种改进方法,扩展了梯度可解释性方法在图神经网络上归因分析的覆盖范围,提高了梯度可解释性方法在图神经网络上归因分析的有效性。
技术领域
本发明属于神经网络可解释性研究领域,尤其涉及一种使用梯度归因分析方法解释图神经网络预测原因的领域。
背景技术
深度学习拥有强大的数据提取与函数拟合能力,加上其具有端到端训练的便利特性,进而激起了人工智能发展的又一次浪潮。在深度学习领域,研究人员根据不同的使用场景设计了适合领域的神经网络架构,如卷积神经网络常常用来处理图像数据,循环神经网络时常用来处理时序数据,自编码器生成网络一般用来完成重构任务。然而,由于神经网络众多的训练参数和分布式表示的特性,导致人们难以对其预测结果做出合理的解释,无法分析神经网络的决策依据。因此,神经网络的黑盒问题一直是阻碍人工智能发展的重大挑战。
近年来,图神经网络已经成为一个热门的研究课题,因为它不仅继承了深度学习从原始数据中自动提取特征的能力,而且可以直接处理图结构数据。图结构数据是许多现实应用领域中常见的数据类型,如社交网络,道路网络和知识图谱。相较于其它类型的数据,不同的图结构数据之间往往存在关联,因此图神经网络在设计时需要考虑到不同数据间的关系。与传统的深度学习模型相似,图神经网络也存在黑盒问题,同样难以解释其做出预测的潜在原因。
分析并解释图神经网络的预测原因是非常重要的。许多关键应用,如医疗、法律和金融领域,犯错的成本非常高。因此,模型需要具有一定的透明度,这样一来,用户可以理解模型是如何进行预测的,领域专家也可以根据分析结果调试和改进模型。
截至目前,已有许多方法可以用来解释传统的深度学习模型,梯度归因分析方法便是其中一个重要的分支。然而,现有的梯度归因分析方法不能直接应用于图神经网络。因为传统的深度学习模型通常只进行了特征信息的融合,而图神经网络不仅进行了特征信息融合,还进行了邻居节点信息的融合。现有的梯度归因分析方法只考虑了特征信息融合的梯度传递情况,无法推断多个节点各自对深度学习模型所做出预测的贡献。
发明内容
发明目的:为了克服现有技术中存在的不足,本发明提供一种基于梯度的图神经网络可解释性分析方法,该方法首度将梯度归因分析方法用于解释图卷积神经网络的预测原因中,并结合图卷积网络的结构特性,一定程度上解决了现有梯度归因分析方法应用于图卷积神经网络上的分析精度不高、覆盖节点不全的问题。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种基于梯度的图神经网络可解释性分析方法,包括以下步骤:
步骤1)向训练好参数的图神经网络输入图结构数据;
步骤2)递归计算图神经网络输出与输入之间所有前向传播路径的梯度;
步骤2.1)分别找到影响各个输出节点的所有输入节点;
步骤2.2)分别找到这些输入节点到各个输出节点的所有前向传播路径;
步骤2.3)分别递归计算每条前向传播路径中输出节点与输入节点间的梯度值;
步骤2.4)对于参与某一输出节点计算过程的各个输入节点,将其多个前向传播路径的梯度值分别求和,得到它们各自对这一输出节点的总梯度值;
步骤3)根据梯度解释各个输入节点对各个输出节点的影响大小;
步骤4)将各个输入节点对各个输出节点的影响大小进行可视化展示与分析;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中南大学,未经中南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911069788.0/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种人工肛门括约肌经皮电能传输系统优化方法
- 下一篇:一种油罐搅拌装置