A Simple Review of Spatial-based ConvGNN
DCNN
论文:[1] Diffusion-convolutional neural networks [2] Diffusion convolutional recurrent neural network Data-driven traffic forecasting
DCNN (Diffusion CNN) 最早由[1]提出
DCNN假设图信号在节点间的转移是一个扩散过程
令
容易看出矩阵
扩散过程实际上是一个以
于是
其中
容易发现
DCNN直接对其进行拼接得
论文[2]通过如下引理对DCNN进行了改进
扩散过程的平稳分布可以被表示为无限随机游走的加权和
使用有限步数对扩散的平稳分布进行近似,得到的DCNN表达式为
论文中作者使用这种形式的DCNN结合encoder-decoder结构构建了一个模型用于交通预测,称为DCRNN
RGCN
论文:Modeling Relational Data with Graph Convolutional Networks
RGCN (Relational Graph Convolutional Network) 的motivation是建模关系数据
设图
其中$Ni^r
论文中RGCN被用于知识图谱的实体分类 (entity classification) 和连接预测 (link prediction),从更一般的观点来看,RGCN实际上提供了一种处理异构图的通用方法
例如购物网站中,用户关系图和商品相似关系图作为异构的两个图,现在可以通过购买或查看等关系类型的边联系起来,作为一张图处理
GraphSAGE
论文:Inductive Representation Learning on Large Graphs
GraphSAGE (SAmple and aggreGatE) 的motivation是将GCN从transductive扩展到inductive,其表达式为
其中
比起GCN,该表达式其实更类似于MPNN的扩展,是标准的Spatial-based
GraphSAGE最特别的地方就是使用固定大小的随机邻居节点集合进行聚合,这样卷积的复杂度就不会随图的增大而变大
聚合函数
其中使用Mean aggregator时GraphSAGE就相当于GCN的inductive变体
GAT
GAT (Graph attention networks) 将attention思想引入了GNN,其表达式为
该式的含义是使用共享参数的映射
其中
其中
GAT还可以进一步写为multi-head attention的形式
MoNet
论文:Geometric deep learning on graphs and manifolds using mixture model CNNs
MoNet (mixture model networks) 提出了非欧几何(图、流形等)中的通用spatial-based卷积框架
这里只关注图,设
聚合操作和卷积表示为
通过指定不同形式的伪坐标
论文中给出了一种参数化方法
其中
于是图卷积可表示为
其中