相关文章:Spatial-based ConvGNN基础

DCNN

论文:[1] Diffusion-convolutional neural networks [2] Diffusion convolutional recurrent neural network Data-driven traffic forecasting

DCNN (Diffusion CNN) 最早由[1]提出

DCNN假设图信号在节点间的转移是一个扩散过程

P=D1A归一化转移概率矩阵Pij表示任意时刻信息从节点i转移到节点j的概率

容易看出矩阵P实际上就是邻接矩阵A行归一化形式

扩散过程实际上是一个以P为转移概率的马尔科夫链,那么时刻k的节点间的扩散概率为Pk

于是k跳的图扩散卷积定义为

H(k)=f(W(k)PkX)

其中表示元素对应相乘

容易发现H(k)的计算没有用到上一层表示H(k1),且和X维度相同

DCNN直接对其进行拼接得H=concat(H(1),,H(k))RN×kd,并将其输入一个MLP得到最终图节点表示

论文[2]通过如下引理对DCNN进行了改进

扩散过程的平稳分布可以被表示为无限随机游走的加权和

P=k=0α(1α)kPk

使用有限步数对扩散的平稳分布进行近似,得到的DCNN表达式为

H=k=0Kf(PkXW(k))

论文中作者使用这种形式的DCNN结合encoder-decoder结构构建了一个模型用于交通预测,称为DCRNN

RGCN

论文:Modeling Relational Data with Graph Convolutional Networks

RGCN (Relational Graph Convolutional Network) 的motivation是建模关系数据

设图G=(V,E,R),其中rR为一个关系类型,(vi,vj,r)E是一条关系类型为r的边,RGCN的表达式为

hi(k+1)=σ(rRjNir1ci,rWr(k)hj(k)+W0(k)hi(k))

其中$Ni^rric{i,r}$为归一化常量,可直接设定或作为参数进行学习

论文中RGCN被用于知识图谱的实体分类 (entity classification) 和连接预测 (link prediction),从更一般的观点来看,RGCN实际上提供了一种处理异构图的通用方法

例如购物网站中,用户关系图和商品相似关系图作为异构的两个图,现在可以通过购买或查看等关系类型的边联系起来,作为一张图处理

GraphSAGE

论文:Inductive Representation Learning on Large Graphs

GraphSAGE (SAmple and aggreGatE) 的motivation是将GCN从transductive扩展到inductive,其表达式为

hv(k)=σ(W(k)fk(hv(k1),{hu(k1),uSN(v)}))

其中SN(v)是节点v邻居节点的随机采样子集合,fk()为聚合函数 (aggregation function)

比起GCN,该表达式其实更类似于MPNN的扩展,是标准的Spatial-based

GraphSAGE最特别的地方就是使用固定大小的随机邻居节点集合进行聚合,这样卷积的复杂度就不会随图的增大而变大

聚合函数fk可以是定义在无序向量上的任意函数,例如Mean aggregator、LSTM aggregator、Pooling aggregator等

其中使用Mean aggregator时GraphSAGE就相当于GCN的inductive变体

GAT

论文:Graph attention networks

GAT (Graph attention networks) 将attention思想引入了GNN,其表达式为

hv(k)=σ(uN(v)vαvu(k)W(k)hu(k1))

该式的含义是使用共享参数的映射W(k)对邻接节点分别处理,并通过加权和的方式进行聚合

其中αvu就是相应连接的权重,也即attention权重,其计算方式为

evu(k)=LeakyReLU(aT[W(k)hv(k1)||W(k)hu(k1)])αvu(k)=softmaxu(evu(k))=exp(evu(k))zN(v)exp(evz(k))

其中[|]表示concat操作,aR2d为可学习的向量

GAT还可以进一步写为multi-head attention的形式

hv(k)=concath=1H{σ(uN(v)vαvu(k)Wl(k)hu(k1))}

MoNet

论文:Geometric deep learning on graphs and manifolds using mixture model CNNs

MoNet (mixture model networks) 提出了非欧几何(图、流形等)中的通用spatial-based卷积框架

这里只关注图,设x是图中某个节点,yN(x)是其邻接节点,u(x,y)是一个d维伪坐标,wΘ(u)=(w1(u),,wJ(u))是一组可学习得权重函数

聚合操作和卷积表示为

Dj(x)f=yN(x)wj(u(x,y))f(y),j=1,,J(fg)(x)=j=1JgjDj(x)f

通过指定不同形式的伪坐标u(x,y)和权重核wΘ(u)可以得到不同的图卷积

论文中给出了一种参数化方法

u(x,y)=(1deg(x),1deg(y))Twj(u)=exp(12(uμj)Σj1(uμj))

其中Σj,μj是可学习的高斯分布协方差矩阵与均值

于是图卷积可表示为

hx(k+1)=j=1JyN(x)e12(u~(x,y)μj)Σj1(u~(x,y)μj)hy(k)

其中u~(x,y)是将u(x,y)输入一个非线性全连接层得到的输出