GNN中如何利用置信度和不确定性做文章

0. 引言
目前图神经网络存在很多的问题,这里作者提出了两个,一个是过平滑,另外一个是对预测结果的不确定性进行评估,换句话说希望预测的结果不仅仅是一个结果,如果有一个置信度就更好了,比如疾病预测,预测了影像目前是什么病,有一个置信度是不是会更有价值一些呢?之前很少有人探讨过GCN背景下的置信度估计,这篇博客将看看仅这些工作是如何做的?
1. -based Graphfor Semi- ( 2019)
预测图中节点的性质是一个重要的问题,在许多领域都有应用 。基于图的半监督学习(SSL)方法旨在通过将一小部分节点标记为种子,然后利用图结构来预测图中其余节点的标记分数来解决这个问题 。最近,图形卷积网络在基于图形的SSL任务上取得了令人印象深刻的性能 。除了标签分数之外,还希望有与之相关联的置信度分数 。但是,在GCN背景下的信心估计以前没有被探索过 。我们在这篇文章中填补了这一空白,并提出了一种基于GCN的联合置信度评估方法 。使用这些估计的置信度来确定邻域聚合期间一个节点对另一个节点的影响,从而获得各向异性的能力 。通过对标准基准的广泛分析和实验,我们发现能够超越最先进的基准 。我们已经提供了的源代码,以鼓励可复制的研究 。
我们提出了基于图的SSL的GCN框架 。联合估计节点上的标签分数,以及对它们的置信度 。对节点标签分数的置信度的一个额外好处是,它们可以用来制服节点邻域中不相关的节点,从而控制每个节点的有效邻居的数量 。这实现了GCNs的各向异性行为 。
我们通过图1所示的例子来解释这一点 。在该图中,虽然节点a具有真正的标签L0(白色),但Kipf-GCN将其错误地分类为L1(黑色) 。这是因为Kipf-GCN受到其邻域聚集方案的限制 。例如,它对能够影响给定目标节点的表示的节点数量没有限制 。在k层-GCN模型中,每个节点都受到其k跳邻域内所有节点的影响 。然而,在真实世界的图中,节点经常出现在不同的邻域中,即一个节点经常被其他标签的节点包围 。例如,在图1中,节点a被三个主要标记为L1的节点(d、e和f)包围,而两个节点(b和c)标记为L0 。请注意,所有这些都是在GCN学习期间估计的标签分数 。在这种情况下,希望节点a比其他三个节点更受节点b和c的影响 。然而,由于基普-GCN不区分相邻节点,它被大多数节点所左右,从而为节点a估计了错误的标签L1 。
能够通过估计每个节点的标签得分的置信度来克服这个问题 。在图1中,这种估计的置信度用条形表示,白色和黑色条形分别表示标签L0和L1的得分的置信度 。使用这些标签置信度来抑制节点d、e、f,因为它们对它们的标签L1(较短的黑条)具有低置信度,而节点b和c对它们的标签L0(较高的白条)具有高置信度 。这导致在聚合期间b和c的影响更大,从而以高置信度正确地预测节点a的真实标签为L0 。这清楚地表明了标签置信度的好处及其在估计节点影响方面的效用 。
之前的GCN公式如下:
采用置信度的GCN公式如下:
对于任意两个给定的节点u和v,利用标签分布和协方差矩阵,它们之间的距离定义如下:
【GNN中如何利用置信度和不确定性做文章】2.Graphwith(ICML 2020)
作者提出了一个用于图神经网络(GNNs)自适应连接采样( )的框架,该框架概括了现有的用于训练GNN的随机正则化方法,可以简单理解为一种与升级版+贝叶斯 。该框架不仅缓解了深层GNNs的过平滑和过拟合的问题,而且使得GNNs在图分析任务中可以应付不确定()的问题,这一点就非常具有实用价值了,也是贝叶斯的擅长的地方 。