当前位置: 首页 > article >正文

Pretraining Language Models with Text-Attributed Heterogeneous Graphs

Pretraining Language Models with Text-Attributed Heterogeneous Graphs

EMNLP

推荐指数:#paper/⭐⭐#​

贡献:

  1. 我们研究了在更复杂的数据结构上预训练LM的问题,即,TAHG。与大多数只能从每个节点的文本描述中学习的PLM不同,我们提出了一个新的预训练框架,使LM能够捕获不同节点之间的拓扑连接。
  2. 作者引入了一个拓扑感知的预训练任务去预测文本图的节点是否在文本图中。这可以使得LM可以利用高阶的信号
  3. 作者设计了一种文本增强策略来丰富无文本节点的语意信息,以缓解文本不平衡问题

异构文本属性图介绍(TAHGs)

G = ( V , E , U , R , X ) \mathcal{G}=(\mathcal{V},\mathcal{E},\mathcal{U},\mathcal{R},\mathcal{X}) G=(V,E,U,R,X),依次分别代表:节点属性,边,节点类型,边类型,节点文本描述。

模型架构

image

第一个模块提取目标节点的上下文,比国内通过联合优化LM和异构图神经网络来预测哪些节点涉及文本图。第二个模块是为了引入节点不平衡的文本描述。值得注意的是,当预训练结束之后,我们只使用PLM在下游任务上测试。

拓扑捕获阶段

这一部分,如上所示,我们的目的是捕获节点之间的一阶和高阶信息。

首先,我们定义context图。(及一个节点的邻域图)。 G u K \mathcal{G}_{u}^{K} GuK代表节点u的K阶内邻居集合。当K大于2,及捕获高阶信息。

Context 图预测(Context Graph Prediction)(GCP)

TAHGs包含多阶邻居信息。和大多数PLM对单个文本进行预训练不同,我们提出了上下文图预测来训练LM捕获丰富的关系信息。

首先,我们得到节点V的表征如下:

H G = f H G N N ( G ) ∈ R ∣ V ∣ × d , H^{\mathcal{G}}=f_{HGNN}\left(\mathcal{G}\right)\in\mathbb{R}^{|\mathcal{V}|\times d}, HG=fHGNN(G)RV×d,其初次输入是通过下面的式子(文本编码)得到的。

f H G N N ( ⋅ ) f_{HGNN}(\cdot) fHGNN()可以表示任何异构图神经网络。

之后,我们编码文本图节点u的描述通过LM:

h L M u = M E A N ( f L M ( X u ) ) ∈ R d , \boldsymbol{h}_{LM}^u=\mathrm{MEAN}(f_{LM}\left(X_u\right))\in\mathbb{R}^d, hLMu=MEAN(fLM(Xu))Rd,

为了捕获节点u的异构性,我们引入了一个映射头在PLM的最后一层。下一步,我们预测节点v是否在context 图中:(这是一个二分类问题)

y ^ u , v = sigmoid ⁡ ( h L M u ⊤ W ϕ ( v ) H v G ) \hat{y}_{u,v}=\operatorname{sigmoid}\left(\boldsymbol{h}_{LM}^{u}{}^{\top}\boldsymbol {W}_{\phi(v)}\boldsymbol{H}_{v}^{\mathcal{G}}\right) y^u,v=sigmoid(hLMuWϕ(v)HvG)

y u , v = 1 y_{u,v}=1 yu,v=1如果 G u K G_u^K GuK包含v,否则为0。

预训练策略

在这个工作中,我们使用BERT以及R-HGCN。

预测上述所有节点的context graph 概率是很困难的( y u , v y_{u,v} yu,v),因此我们使用负样本采样去优化上述公式。为了生成负样本,我们采样k个邻居对于每个跳,负样本从 V ∖ V u K \mathcal{V}\setminus\mathcal{V}_{\boldsymbol{u}}^{K} VVuK中采样,负样本比是5(一个正样本对应5个负样本)。对于GCPtask,我们使用MLM任务去帮助LMs更好的处理文本。最终的优化目标为:

L u = L u M L M + L u C G P = − log ⁡ P ( X ~ u ∣ X u ∖ X ˉ u ) − ∑ v ∈ V u K log ⁡ y ^ u , v − ∑ i = 1 5 E v i ′ ∼ P n ( V ∖ V u K ) log ⁡ ( 1 − y ^ u , v i ′ ) , \mathcal{L}_{u}=\mathcal{L}_{u}^{MLM}+\mathcal{L}_{u}^{CGP}=-\log P(\tilde{X}_{u}|X_{u\setminus\bar{X}_{u}})-\sum_{v\in\mathcal{V}_{u}^{K}}\log\hat{y}_{u,v}-\sum_{i=1}^{5}\mathbb{E}_{v_{i}^{\prime}\sim P_{\boldsymbol{n}}(\mathcal{V}\setminus\mathcal{V}_{\boldsymbol{u}}^{K})}\log\left(1-\hat{y}_{u,v_{\boldsymbol{i}}^{\prime}}\right), Lu=LuMLM+LuCGP=logP(X~uXuXˉu)vVuKlogy^u,vi=15EviPn(VVuK)log(1y^u,vi),

X ~ u \tilde{X}_{u} X~u代表扰动的节点,原始文本的masking rate是40%。 P n ( ⋅ ) P_n(\cdot) Pn()代表正太噪音分布。

文本增强策略

TAGs中有文本丰富的图,也有textless的图。textless的图不足以反映他们的语意,因此我们涉及了一种文本增强策略来解决这个问题。这个策略首先根据TAHGs中的链接结合其邻居的文本描述,来丰富无文本节点的语意,然后通过LM来增强文本。

具体的是,对于text-rich的节点u,我们可以使用token作为输入: M u M_{u} Mu=

[ C L S ] X u [ S E P ] [\mathrm{CLS}]X_{u}\mathrm{[SEP]} [CLS]Xu[SEP]。对于text-less的节点u,我们可以拼接它的文本和k个邻居采样的文本作为输入: M u M_{u} Mu= X u   [ S E P ]   X N u 1  [SEP] ... [SEP] X N k   [ S E P ] , X_{u}\mathrm{~[SEP]~}X_{\mathcal{N}_u^1}\text{ [SEP] ... [SEP]}X_{\mathcal{N}^k} \mathrm{~[SEP],} Xu [SEP] XNu1 [SEP] ... [SEP]XNk [SEP],

通过如上的增强,我们可以将PLM的输入从 X X X更替为 M u M_u Mu

下游任务的微调

在下游任务中,我们抛弃了HGNN,只使用预训练的LM来生成语意信息通过LM编码器。我们探索了不同的headers(映射头)。对于下游任务,LM是冻结的,只有header会被微调。

实验结果+我自己的分内心:

image

image

从表2可以看出,作者提出的GCP好像么有啥特别大的效果(数值上与w/ RGCN对比)。但是,作者的方法又比其他人的方法好一点点,那么,其原因可能是:作者提出的第二部分:文本增强起作用了。这个文本增强的方法,也类似于24年唐杰组的虚拟节点​​

image

从该表可以看出,TAS的性能其实比neighbors only 和textless-only两者较高的的高一丢丢。可以猜测,TAS的最大的作用是增强了其的稳定性


http://www.kler.cn/a/560999.html

相关文章:

  • kotlin 知识点五 泛型和委托
  • Kafka集群性能测试实战指南:从规划到验证,全面掌握高效测试方案
  • 《2025国内免费DeepSeek-R1自部署平台实测指南:三大运营商/腾讯/华为哪家强?附避坑清单》
  • python学智能算法(四)|遗传算法:原理认识和极大值分析
  • 注意力机制在 Transformer 模型中的核心作用剖析
  • Docker下的Elastic search
  • 无前端经验如何快速搭建游戏站:使用 windsurf 从零到上线的详细指南
  • 机器学习数学基础:34.点二列
  • Vue3中watchEffect、watchPostEffect、watchSyncEffect的区别
  • 在LangFlow中集成OpenAI Compatible API类型的大语言模型
  • DeepSeek开源周高能开场:新一代高效推理引擎FlashMLA正式发布
  • EX_25/2/22
  • 115 道 MySQL 面试题,从简单到深入!
  • 《一起打怪兽吧》——自制一款Python小游戏
  • 基于Spring Boot的健康医院门诊在线挂号系统设与实现(LW+源码+讲解)
  • 超详细:数据库的基本架构
  • HandBrake for Mac v1.9.2 视频压缩及格式转换 汉化版 支持M、Intel芯片
  • TLS与自签名证书的创建、作用、用到的工具等知识的介绍
  • 反向代理模块kfj
  • 实操解决Navicat连接postgresql时出现‘datlastsysoid does not exist‘报错的问题