《图神经网络:由入门到高级、从算法到应用》第八讲:深层图神经网络模型

本课程第八讲主要给大家介绍深层图神经网络,包括GCNII, DeeperGCN, RevGNN等。大家对于这节课有什么疑问可以在这里交流~

无限深的图神经网络:Graph Neural Ordinary Differential Equations

论文链接
正如在一般的神经网络中发展出Neural ODE(论文链接)一样,在图神经网络中有对应的Graph Neural ODE。
它将一般的递推式推广成一个微分方程:

\mathbf{H}(k+1)=\mathbf{H}(k)+\mathbf{F}(k, \mathbf{H}(k),\mathbf\Theta)\\ \dot{\mathbf{H}}(t)=\mathbf{f}(t, \mathbf{H}(t),\mathbf\Theta)

Neural ODE中有现成的常微分方程求解器(类似MATLAB的ode45),并且能够以 \mathcal{O}(1) 的空间复杂度反向传播(称为Adjoint Method)。这样就能按照所需精度求解微分方程,也无需确定层数,实际上可以达到无限层。
做了三个任务:Cora、Citeseer、PubMed节点分类,多智能体的轨迹外推(合成数据集),还有交通网络预测。

另外,还有无限宽的图神经网络Graph NTK (论文链接),和核密度估计有关。

我因为做Neural ODE相关,所以对这一块挺熟的。Neural ODE和图的结合还属于比较新颖的,主要的trick是引入一些超参数,让网络在精度和计算负担之间平衡