当前位置: 首页 > article >正文

【论文阅读】Cross-View Fusion for Multi-View Clustering

论文地址:Cross-View Fusion for Multi-View Clustering | IEEE Journals & Magazine | IEEE Xplore


摘要

多视图聚类近年来备受关注,因其能够利用多视图的一致性与互补性信息提升聚类性能。然而,如何有效融合多视图信息并平衡其一致性与互补性,是多视图聚类面临的共性挑战。现有方法多聚焦于加权求和融合拼接融合,但这些方式难以充分融合潜在信息,且未考虑多视图一致性与互补性的平衡。为此,本文提出一种跨视图融合多视图聚类方法(CFMVC)
具体而言,CFMVC结合深度神经网络图卷积网络实现跨视图信息融合,充分融合多视图的特征信息与结构信息。为平衡多视图的一致性与互补性,CFMVC通过增强同类样本间的相关性以最大化一致性信息,同时强化不同样本间的独立性以最大化互补性信息。在多个多视图数据集上的实验表明,CFMVC在多视图聚类任务中具有显著有效性。

引言

多视图聚类(Multi-view Clustering, MVC)作为机器学习的新范式,旨在通过多视图联合学习提取有价值的语义信息[1]–[4]。传统MVC方法主要包括:

  1. 协同训练方法(如[5]–[7]),利用先验信息或视图间知识交互最大化视图一致性;

  2. 多视图子空间聚类方法(如[8]–[11]),从多子空间或潜在空间学习统一表征;

  3. 多视图图聚类方法(如[12]–[14]),学习跨视图的融合图结构。
    然而,传统方法存在表征能力弱计算复杂度高的问题,导致聚类性能受限。

近年来,深度多视图聚类方法[15]–[20]凭借深度神经网络强大的特征表征与非线关系处理能力,可从多视图中学习高表达能力表征。例如:

  • [23]设计自适应特征金字塔网络,实现空间位置与通道间的平衡融合;

  • [24]提出高效图推理模块,保持特征多样性以学习判别性描述;

  • [25]结合拉普拉斯正则化与多样性策略,学习一致且多样的深度潜在表征;

  • [26]利用带拉普拉斯正则的自编码器构建单视图相似图并提出融合策略。

尽管现有深度MVC方法取得显著进展,仍面临以下挑战:

  1. 融合策略局限:主流方法依赖加权求和[15][16]或拼接融合[19][27],难以充分融合多视图底层信息并获取紧凑公共表征;

  2. 信息平衡缺失:多数方法仅关注一致性或互补性最大化,未平衡二者关系[27][28]。

针对上述问题,本文提出跨视图融合多视图聚类方法(CFMVC)(见图1),其目标包括:

  1. 融合多视图特征与结构信息以获取丰富语义;

  2. 有效平衡多视图一致性与互补性。具体实现如下:

  • 跨视图信息融合模块:结合深度神经网络与图卷积网络,逐层提取视图特征后跨视图传播特征及结构信息;

  • 平衡特征融合模块:基于冗余缩减原理[29],通过增强同类样本相关性最大化一致性,同时强化异类样本独立性最大化互补性

本文主要贡献包括:

  1. 提出深度神经网络与图卷积网络结合的跨视图信息融合模块,充分融合多视图特征与结构信息;

  2. 设计平衡特征融合模块,通过协调一致性与互补性获取紧凑且判别性强的公共表征;

  3. 提出新型多视图融合策略,在多视图融合与信息平衡中表现优异。实验证明CFMVC在多视图聚类任务中具有显著有效性。

模型

所提出的CFMVC框架包含三个核心模块:跨视图信息融合平衡特征融合自训练聚类。其总体损失函数定义为:

𝐿=𝐿𝑟𝑒𝑐+𝜆1𝐿𝑏𝑓𝑓+𝜆2𝐿𝑐𝑙𝑢

其中:

  • 𝐿𝑟𝑒𝑐为重构损失,用于约束数据重建精度;

  • 𝐿𝑏𝑓𝑓为平衡特征融合模块的损失,用于协调多视图一致性与互补性信息;

  • 𝐿𝑐𝑙𝑢为聚类损失,优化聚类目标;

  • 𝜆1​ 与 𝜆2为权衡参数,调节不同损失的贡献权重。


A. 跨视图信息融合模块(CIF)

本模块旨在通过融合多视图的特征信息结构信息,生成富含语义的跨视图融合表征。具体流程如下:

1. 结构信息提取
  • 基于原始数据 𝑋𝑚,采用K近邻(KNN)方法构建邻接矩阵 𝐴𝑚:

    • 计算样本间相似度 ,选择相似度最高的 𝑘 个样本作为邻居节点;

    • 构建KNN图并生成邻接矩阵 𝐴𝑚。

2. 特征信息提取
  • 使用自编码器(Autoencoder)逐层提取视图特征:

    • 编码器第 𝑙 层特征表示为 𝐻(𝑚,𝑙)=𝐸𝑚(𝑋𝑚;𝜃𝑒𝑚),捕获层级特异性信息;

    • 解码器重建数据 𝑋^𝑚=𝐷𝑚(𝐻(𝑚,𝑙);𝜃𝑑𝑚),重构损失定义为:

3. 跨视图信息传递
  • 结构信息融合:融合双视图的邻接矩阵(含自连接 𝐴~𝑚=𝐴𝑚+𝐼)以增强全局结构表征:

  • 特征信息融合:将自编码器第 𝑙 层特征 𝐻(𝑚,𝑙)与图卷积网络(GCN)的层级表示 𝑍(𝑙) 结合:

    其中 𝛼为传递算子,用于耦合自编码器与GCN。

4. 层级传播与对称融合
  • 融合后的邻接矩阵 𝐴^与特征表示 𝑍~(𝑙) 输入至下一层GCN:

    其中 𝜎为激活函数,𝐷~ 为度矩阵,𝑊 为可训练权重。

  • 对称输出:以双视图互为输入进行对称融合,最终输出跨视图融合表征 𝑍1与 𝑍2。

B. 平衡特征融合模块

受文献[29]启发,本文扩展冗余缩减原理以平衡多视图的一致性互补性信息。具体实现如下:

  1. 样本相关性计算
    计算跨视图融合表征 𝑍1​ 与 𝑍2 的样本相关性矩阵 𝐶∈𝑅𝑛×𝑛:​​​​​​​其中 𝐶𝑖𝑗表示 𝑍1​ 中第 𝑖 个样本与 𝑍2​ 中第 𝑗个样本的余弦相似度

  2. 平衡损失函数
    通过优化目标使相关性矩阵 𝐶 逼近单位矩阵 𝐼:

    • 第一项:强制对角元素 𝐶𝑖𝑖→1,通过最大化同类样本相似度增强视图间一致性;

    • 第二项:强制非对角元素 𝐶𝑖𝑗→0,通过最小化异类样本相似度提升视图间互补性。

  3. 公共表征生成
    线性融合 𝑍1​ 与 𝑍2​ 得到平衡后的公共表征:


C. 自训练聚类模块

为构建聚类友好空间,基于KL散度设计聚类损失函数:

  1. 软分配概率
    采用学生t分布度量样本 𝑧𝑖zi​ 与聚类中心 𝜇𝑗的相似性:

  2. 目标分布优化
    通过高频增强策略生成辅助目标分布 𝑝𝑖𝑗:

  3. KL散度损失
    通过最小化 𝑝𝑖𝑗 与 𝑞𝑖𝑗的KL散度优化聚类:

    此过程迫使样本向聚类中心紧致聚集,最终获得适合聚类的公共表征。

实验


从跨视图的角度出发解决视图信息融合问题。


http://www.kler.cn/a/587969.html

相关文章:

  • Flash Attention原理讲解
  • 【Linux】:socket编程——UDP
  • 传输层tcp/udp
  • 287. 寻找重复数
  • Python实现万年历
  • DAY34 贪心算法Ⅲ
  • C++模版(复习)
  • C++|类和对象
  • Android 拍照开发——移动虚拟机摄像头
  • java简单基础学习
  • 关于离子滤波小记
  • 数据库管理-第302期 国产类RAC架构数据库网络连接方式(20250314)
  • RabbitMQ:业务幂等、死信交换机
  • C++基础——从C语言快速入门
  • matlab 自适应模糊PID在反应釜温度控制中的应用
  • 每日定投40刀BTC(9)20250312 - 20250315
  • Python 鼠标轨迹算法 - 防止游戏检测
  • Unity小框架之单例模式基类
  • 掌阅iReader全球首款 7 英寸 Carta 1300 墨水屏阅读器即将发布
  • Starship:快速且高度可定制的命令行框架!!