当前位置: 首页 > article >正文

NodeFormer:一种用于节点分类的可扩展图结构学习 Transformer

 人工智能咨询培训老师叶梓 转载标明出处

现有的神经网络(GNNs)在处理大规模图数据时面临着一些挑战,如过度平滑、异质性、长距离依赖处理、边缘不完整性等问题,尤其是当输入图完全缺失时。为了解决这些问题,上海交通大学的研究者们人提出了一种名为NodeFormer的新型图结构学习Transformer。

NodeFormer提出了一种全新的全对消息传递方案,通过一种核化的Gumbel-Softmax操作符来减少算法复杂度,使其与节点数量呈线性关系。这种方法不仅能够高效地在大规模、潜在的全连接图中学习潜在图结构,而且能够以可微分的方式进行端到端的优化。

NodeFormer还引入了关系偏差和边缘级别的正则化损失,以更好地适应输入图(如果存在的话),并指导适当地学习自适应结构。

方法

NodeFormer通过一种新颖的方法来更新节点嵌入,采用核化的Gumbel-Softmax操作符,实现了每一层节点嵌入的O(N)复杂度更新。NodeFormer引入了关系偏差和边缘正则化损失机制,两者均在输入图可用时发挥作用,且计算复杂度为O(E)。在训练过程中,模型的目标是最小化监督分类损失和边缘正则化损失的加权和。

算法 1描述了NodeFormer的前馈计算过程。该算法从输入节点特征Z(0)=X和可选的图邻接矩阵A开始,通过迭代的方式,每一层都使用核化的Gumbel-Softmax操作符来更新节点嵌入。这个过程包括了关系偏差的引入,以及通过邻接矩阵A强化观察到的边的传播权重。

为了证明新的消息传递函数的正确性,提出了两个关键的理论问题。定理1(Softmax-Kernel的近似误差)指出,当特征映射的维度足够大且温度参数τ接近零时,正则化特征映射的分布将趋于原始的分类分布。定理2(核化Gumbel-Softmax随机变量的性质)进一步确认了这一点。

NodeFormer通过引入温度参数τ和随机特征映射的维度m,平衡了RF近似和Gumbel-Softmax近似之间的权衡。较大的τ有助于减少核维度m的负担,而较小的τ则需要较大的m来保证足够的RF近似精度。如果τ过大,每条边的权重将趋于1/N,即模型几乎退化为平均池化;而较小的τ则会使核化Gumbel-Softmax更好地近似分类分布。

图1阐释了NodeFormer的数据流向,突出了模型的三个主要组成部分:全对消息传递(MP)模块、关系偏差和边缘正则化损失。MP模块负责以O(N)的复杂度更新节点嵌入,而关系偏差和边缘正则化损失则根据输入图的可用性进行计算,两者的计算复杂度均为O(E)。这种设计使得NodeFormer在保持高效计算的同时,能够充分利用输入图的结构信息。

想要掌握如何将大模型的力量发挥到极致吗?叶老师带您深入了解 Llama Factory —— 一款革命性的大模型微调工具(限时免费)。

1小时实战课程,您将学习到如何轻松上手并有效利用 Llama Factory 来微调您的模型,以发挥其最大潜力。

CSDN教学平台录播地址:https://edu.csdn.net/course/detail/39987 

实验

实验采用了多种数据集,包括小型到中型的图数据集Cora、Citeseer、Deezer和Actor,以及更大规模的图数据集OGB-Proteins和Amazon2M。此外,还考虑了无输入图的半监督图像和文本分类任务,使用的是Mini-ImageNet和20News-Groups数据集。

在实验中,NodeFormer的输出预测层是一个单层的MLP(多层感知机),对于所有数据集,激活函数σ设置为sigmoid,温度参数τ设置为0.25。所有实验都在配备16GB内存的NVIDIA V100上进行。实验与多个基线模型进行比较,包括GCN、GAT、JKNet、MixHop、DropEdge、LDS-GNN、IDGL、SGC和GraphSAINT。

在Cora、Citeseer、Deezer和Actor数据集上进行了传导式节点分类实验。这些数据集的规模从2K到20K个节点不等。对于评估指标,Deezer数据集使用ROC-AUC,其他数据集使用准确率。图2展示了NodeFormer在这些数据集上的表现,无论是在同质性还是非同质性图上,NodeFormer都取得了最佳的准确率/ROC-AUC,特别是在两个非同质性图上,NodeFormer的性能大大超过了其他模型。

进一步测试了NodeFormer在大规模网络上的可扩展性,使用了OGB-Proteins和Amazon2M数据集,节点数分别超过10万个和200万个。OGB-Proteins是一个包含112个输出维度的多任务数据集,而Amazon2M是从亚马逊共购网络中提取的,包含长距离依赖。表2和表3展示了NodeFormer在这些数据集上的测试结果,无论是在ROC-AUC还是准确率上,NodeFormer都显著优于基线模型,并且内存消耗也更低。

在没有输入图的情况下,NodeFormer被应用于Mini-ImageNet和20News-Groups数据集上的半监督图像和文本分类任务。使用k-NN方法基于输入节点特征构建图,以启用GNN的消息传递和NodeFormer的基于图的组件。表4展示了在不同k值下的结果,NodeFormer在8个案例中的7个中都取得了最佳性能,表明NodeFormer对于k-NN图的依赖性较低,并且能够从数据中学习到有用的潜在图结构。

图3展示了NodeFormer与两种最先进的结构学习模型在训练/推理时间和GPU内存消耗方面的比较。NodeFormer在训练时间、推理时间和内存消耗方面都有显著降低。还探讨了随机组成部分的影响、边缘损失和关系偏差的影响,以及温度参数和特征映射维度的影响。

图6展示了温度和随机特征映射维度对模型性能的影响,结果与理论分析一致。图4和通过可视化,展示了NodeFormer学习到的节点嵌入和边连接,以及与原始图结构的比较,说明了NodeFormer如何通过学习潜在结构来改进下游节点级预测任务的性能。

NodeFormer在各种实验中都显示出了优异的性能,无论是在处理同质性还是非同质性图、大规模图数据集,还是在没有输入图的情况下进行图增强应用的任务。这些结果证明了NodeFormer在实际应用中的有效性和可扩展性。

https://arxiv.org/pdf/2306.08385v1

https://github.com/qitianwu/nodeformer


http://www.kler.cn/a/414372.html

相关文章:

  • Linux基础项目包含(DNS,FTP,Samba)
  • 【组件封装】uniapp vue3 封装一个自定义下拉刷新组件pullRefresh,带刷新时间和加载动画教程
  • LightRAG - 更快更便宜的GraphRAG
  • vue3项目部署在阿里云轻量应用服务器上
  • 英语知识网站:Spring Boot技术构建
  • PHP 8.4 重磅发布了
  • 修改element UI el-table背景颜色样式 input select date vuetree
  • 如何在 IIS 上部署 .NET Core 应用程序 ?
  • 基于 Flask 和 Socket.IO 的 WebSocket 实时数据更新实现
  • 常用Python集成开发环境(IDE)
  • 基于FPGA的SD NAND读写测试(图文并茂+源代码+详细注释)
  • ISIS SSN/SRM 标志在 P2P 链路和 Broadcast 链路中的作用
  • Python全局解释器锁(GIL)深度解析
  • 现代化水库可视化管理平台:提升水库运行效率与安全保障
  • docker的joinsunsoft/docker.ui修改密码【未解决】
  • 二十六:Web条件请求的作用
  • 【实体配置】.NET开源 ORM 框架 SqlSugar 系列
  • 「Java EE开发指南」如何使用Visual JSF编辑器设计JSP?(二)
  • electron-vite_13取消所有窗口默认菜单显示
  • mysql-binlog的三种模式
  • python3.9读取指定txt文件,将里面的所有文字计出总和,将txt文件的内容,按每50000字,保存成新的txt文件
  • 算法基础 - 最小二乘法(线性拟合)
  • 分布式锁的实现方案有哪些?各自的原理是怎样的?使用场景有哪些?与单体架构中锁区别?存在哪些问题?如何解决?注意事项?
  • 6.算法移植第六篇 YOLOV5/rknn生成可执行文件部署在RK3568上
  • Redis中的数据结构详解
  • HarmonyOS4+NEXT星河版入门与项目实战(23)------组件转场动画