一.论文概述

作者提出了Graph Transformer Network (GTN)用来在异配图(heterogeneous graph)上学习节点表示。通过Graph Transformer层,模型能将异构图转换为由meta-path定义的多个新图,这些meta-paths具有任意的边类型和长度,通过在学得的meta-path对应的新图上进行卷积能获取更有效的节点表示。在几个异配图数据集上的实验结果也验证了GTN的有效性。

二.预备知识

v_1 \stackrel{t_1}{\longrightarrow} v_2 \stackrel{t_2}{\longrightarrow} \ldots \stackrel{t_l}{\longrightarrow} v_{l+1} v 1 t 1 v 2 t 2 t l v l + 1 ,其中 H^{(l+1)}=\sigma\left(\tilde{D}^{-\frac{1}{2}} \tilde{A} \tilde{D}^{-\frac{1}{2}} H^{(l)} W^{(l)}\right) H ( l + 1 ) = σ ( D ~ 2 1 A ~ D ~ 2 1 H ( l ) W ( l ) )
其中

先前的工作中meta-paths需要人工构造,而Graph Transformer Networks却可以通过给定的数据和任务来学习meta-paths,然后对学到的meta-paths进行图卷积。

Graph Transformer (GT)层中meta-path的生成由两个组件。首先GT层从候选邻接矩阵 Q=F\left(\mathbb{A} ; W_\phi\right)=\phi\left(\mathbb{A} ; \operatorname{softmax}\left(W_\phi\right)\right) Q = F ( A ; W ϕ ) = ϕ ( A ; softmax ( W ϕ ) )
其中 A_P=\left(\sum_{t_1 \in \mathcal{T}^e} \alpha_{t_1}^{(1)} A_{t_1}\right)\left(\sum_{t_2 \in \mathcal{T}^e} \alpha_{t_2}^{(2)} A_{t_2}\right) \cdots\left(\sum_{t_l \in \mathcal{T}^e} \alpha_{t_l}^{(l)} A_{t_l}\right) A P = ( t 1 T e α t 1 ( 1 ) A t 1 ) ( t 2 T e α t 2 ( 2 ) A t 2 ) ( t l T e α t l ( l ) A t l )
其中 i = 0 l α t i ( i ) ​进行获取,它表明了meta-path在预测任务上的重要程度。表3展示了文献中广泛使用的预定义meta-paths,以及GTN学习的具有高注意力分数的meta-paths。

  • 从表3可以看出,通过领域知识预定义的meta-paths与GTN中学得的排名靠前的meta-paths一致。这表明GTN能学习任务meta-path的重要性。此外,GTN还挖掘了不包含在预定义meta-path集的meta-paths。
  • 图3展示了每个GT层的邻接矩阵的注意力分数,(a)为DBLP,(b)为IMDB。与DBLP相比,单位阵在IMDB中有更高的注意力分数。通过给单位阵分配更高的注意力分数,GTN试图坚持更短的meta-paths,即使在更深的层。这表明GTN更根据数据集自适应学习最有效的meta-path的能力。
图注意力网络 ( Graph Attention Networks , GAT) 是对图卷积网络 ( Graph Convolutional Network, GCN) 的改进,提出了一种通过自注意力 (self-attention) 过程计算的加权因子,而不是使用静态的归一化系数。在本节中,我们介绍了 GAT 架构。通过从线性变换到多头注意力的四个主要步骤,了解了 GAT 的工作原理,并在 NumPy 中从零开始构建了 GAT 层。最后,将 GAT 模型应用于 Cora 和 CiteSe er 数据集。 Graph Transform er Networks 与2019年发表在NeurIPS上 文章目录摘要一、Introduction二、Related Works三、Method3.1准备工作3.2 Meta-Path Gen er ation3.3 Graph Transform er Networks Conclusion个人总结 图 神经网络 ( GNN s)已被广泛应用于图形的表示学习,并在节点分类和链路预测等任务中取得了最先进的性能。然而,大多数现有的 神经网络 被设计来学习固定和同构图上的节点表示。当学习由各 图 神经网络 GNN s)在图表示学习中得到了广泛的应用,实现了节点分类和连接预测等任务的最佳性能。然而,大多数现有的 GNN s都被设计为在固定(fix)和同质(homogeneous)的图上学习节点表示。当在不确定的图或由各种类型的节点和边组成的 构(het er ogeneous)图上学习表示时,这些限制尤其成问题。本文提出了能够生成新的图结构... 在本文中,我们提出了能够生成新图结构的 Graph Transform er Network(GTN),其中包括识别原始图上未连接节点之间的有用连接,同时在端到端学习新图上的有效节点表示形式。最近的一种补救方法是手动设计元路径,这些元路径是与 构边连接的路径,并将 构图转换为由元路径定义的其次图表示,而HAN通过将 构图转换为由元路径构造的其次图来学习图表示学习。但是,这些方法由领域专家手动选择元路径,因此可能无法捕获每个问题的所有有意义的关系,同样,元路径的选择也会显著影响性能。 与这些方法不同,我们的可以在 H2GCN是NeurIPS 2020上发表的论文《Beyond Homophily in Graph Neural Networks : Current Limitations and Effective Designs》所提出来的一个同时适用于同 配图 配图 GNN 模型。该模型官方也开源了相应的源码(Github),但是是Tensorflow实现的,为此,本文基于Pytorch+PyG来对该模型进行复现。...... 探索未来图 神经网络 Graph Transform er Networks 项目地址:https://gitcode.com/seongjunyun/ Graph _ Transform er _ Networks 深度学习 的世界里,图 神经网络 Graph Neural Networks , GNN )正在成为处理非欧几里得数据的首选工具,尤其是在社交网络、化学分子结构分析和推荐系统等领域。今天,我们要介绍一...

三.Meta-Path的生成