图神经网络学习笔记-图神经网络可解释性应用详解(专题二十二)
一、理论知识
GNN 模型的可解释性理论及不同解释器解析
近年来,图神经网络(GNN) 在社交网络、推荐系统、生物信息等领域取得了显著进展。然而,GNN 的决策过程往往是黑箱的,使得用户难以理解其预测结果。因此,可解释性(Explainability) 逐渐成为 GNN 研究的一个重要方向。
目前,GNN 的可解释性方法主要分为以下几类:
- 基于掩码(Mask-based)的方法(如 GNNExplainer、GraphMask)
- 基于特征归因(Feature Attribution)的方法(如 Captum)
- 基于模型代理(Model-Agnostic)的方法
下文将详细讲解不同方法的原理及其应用。
1. GNNExplainer 解释器
GNNExplainer 是 面向图神经网络的一种通用