当前位置: 编码机 >> 编码机优势 >> 图模型Bert香不香完全基于注意力机制
作者
JiaweiZhang、HaopengZhang、CongyingXia、LiSun
译者
凯隐
编辑
Jane
出品
AI科技大本营(ID:rgznai)
本文提出了一种全新的图神经网络Graph-Bert,仅仅基于Attention机制而不依赖任何类卷积或聚合操作即可学习图的表示,并且完全不考虑节点之间的连接信息。通过将原始图分解为以每个节点为中心的多个子图来学习每个节点的表征信息,这不仅能解决图模型的预训练问题,还能通过并行处理还提高效率。