论文略读:Less is More: on the Over-Globalizing Problem in Graph Transformers
2024 ICML
- 主要观点:Graph Transformer 中的过全局化问题 (Over-Globalizing Problem)
- 当前 Graph Transformer 的注意力机制过度关注那些远端节点,而实际上包含了大部分有用信息的近端节点则被相对忽视了
- ——>提出了一种新的采用协同训练的两级全局 Graph Transformer 方法 (CoBFormer)