编码机

图模型Bert香不香完全基于注意力机制

发布时间:2023/7/16 17:12:07   

作者

JiaweiZhang、HaopengZhang、CongyingXia、LiSun

译者

凯隐

编辑

Jane

出品

AI科技大本营(ID:rgznai)

本文提出了一种全新的图神经网络Graph-Bert,仅仅基于Attention机制而不依赖任何类卷积或聚合操作即可学习图的表示,并且完全不考虑节点之间的连接信息。通过将原始图分解为以每个节点为中心的多个子图来学习每个节点的表征信息,这不仅能解决图模型的预训练问题,还能通过并行处理还提高效率。

论文

转载请注明:http://www.aideyishus.com/lkgx/5263.html

------分隔线----------------------------