当前位置: 首页 > article >正文

《基于自适应正负样本对比学习的特征提取框架》-核心公式提炼简洁版 2022年neural networks

论文源地址

以下是从文档中提取的关于“基于对比学习的特征提取框架(CL-FEFA)”中正负样本对比学习实现的技术细节,包括详细的数学公式、特征提取过程以及特征表示方式的说明。


1. 正负样本的定义与构造

在CL-FEFA框架中,正负样本的定义是动态且自适应的,基于特征提取的结果,而不是预先固定的。这种自适应性是CL-FEFA区别于传统对比学习(如SimCLR、SupCon)的一个关键点。

定义方式:
  • 指示矩阵 H H H

H i , j = { 0 if  x i  and  x j  are labeled and  c i ≠ c j 1 otherwise H_{i,j} = \begin{cases} 0 & \text{if } x_i \text{ and } x_j \text{ are labeled and } c_i \neq c_j \\ 1 & \text{otherwise} \end{cases} Hi,j={01if xi and xj are labeled and ci=cjotherwise

  • H i , j H_{i,j} Hi,j 是一个 n × n n \times n n×n 的矩阵,其中 n n n 是样本数量。

  • x i x_i xi x j x_j xj 是已标记样本且属于不同类别时, H i , j = 0 H_{i,j} = 0 Hi,j=0;其他情况下(包括未标记样本或同类样本), H i , j = 1 H_{i,j} = 1 Hi,j=1

  • 相似性矩阵 S S S

    • S i , j S_{i,j} Si,j 表示样本 x i x_i xi x j x_j xj 在潜在结构空间(即特征提取后的低维空间)中的相似性关系。
    • S S S 是一个 n × n n \times n n×n 的矩阵,通过优化过程动态学习得到。
  • 正负样本判定

    • 如果 H i , j S i , j ≠ 0 H_{i,j} S_{i,j} \neq 0 Hi,jSi,j=0,则 x i x_i xi x j x_j xj 被定义为一对正样本。
    • 如果 H i , j S i , j = 0 H_{i,j} S_{i,j} = 0 Hi,jSi,j=0,则 x i x_i xi x j x_j xj 被定义为一对负样本。
构造过程:
  • CL-FEFA通过特征提取的结果(即低维嵌入 Y = P T X Y = P^T X Y=PTX)动态调整 S i , j S_{i,j} Si,j,从而构造正负样本。
  • 这种方法避免了传统对比学习中依赖数据增强或预定义规则的局限性,使得正负样本更贴近数据的潜在结构。

2. CL-FEFA的数学模型与优化目标

CL-FEFA的目标是通过InfoNCE损失函数提取判别性特征,同时优化投影矩阵 P P P 和相似性矩阵 S S S

优化问题:

min ⁡ P , S L = ∑ i = 1 n ∑ j = 1 n − H i , j S i , j log ⁡ f ( y i , y j ) ∑ k = 1 n f ( y i , y k ) + γ ∥ S ∥ F 2 \min_{P, S} L = \sum_{i=1}^n \sum_{j=1}^n -H_{i,j} S_{i,j} \log \frac{f(y_i, y_j)}{\sum_{k=1}^n f(y_i, y_k)} + \gamma \|S\|_F^2 P,SminL=i=1nj=1nHi,jSi,jlogk=1nf(yi,yk)f(yi,yj)+γSF2

s.t. ∀ i , S i T 1 = 1 , 0 ⩽ S i ⩽ 1 , rank ⁡ ( L S ) = n − c \text{s.t.} \quad \forall i, S_i^T \mathbf{1} = 1, 0 \leqslant S_i \leqslant 1, \operatorname{rank}(L_S) = n - c s.t.i,SiT1=1,0Si1,rank(LS)=nc

  • 符号解释

    • X = [ x 1 , x 2 , … , x n ] ∈ R D × n X = [x_1, x_2, \dots, x_n] \in \mathbb{R}^{D \times n} X=[x1,x2,,xn]RD×n:训练样本集, D D D 是原始特征维度, n n n 是样本数。
    • Y = [ y 1 , y 2 , … , y n ] ∈ R d × n Y = [y_1, y_2, \dots, y_n] \in \mathbb{R}^{d \times n} Y=[y1,y2,,yn]Rd×n:低维嵌入, Y = P T X Y = P^T X Y=PTX d ≪ D d \ll D dD 是嵌入维度。
    • P ∈ R D × d P \in \mathbb{R}^{D \times d} PRD×d:投影矩阵,将高维数据映射到低维空间。
    • f ( y i , y j ) = exp ⁡ ( y i T y j ∥ y i ∥ ∥ y j ∥ σ ) f(y_i, y_j) = \exp\left(\frac{y_i^T y_j}{\|y_i\| \|y_j\| \sigma}\right) f(yi,yj)=exp(yi∥∥yjσyiTyj):相似性函数,基于余弦相似度, σ \sigma σ 是正参数。
    • γ \gamma γ:正则化参数,控制 S S S 的Frobenius范数。
    • L S = D S − S + S T 2 L_S = D_S - \frac{S + S^T}{2} LS=DS2S+ST:图拉普拉斯矩阵, D S D_S DS 是度矩阵, rank ⁡ ( L S ) = n − c \operatorname{rank}(L_S) = n - c rank(LS)=nc 约束 S S S 的连通分量数为 c c c
  • 目标解释

    • 第一项 − H i , j S i , j log ⁡ f ( y i , y j ) ∑ k = 1 n f ( y i , y k ) -H_{i,j} S_{i,j} \log \frac{f(y_i, y_j)}{\sum_{k=1}^n f(y_i, y_k)} Hi,jSi,jlogk=1nf(yi,yk)f(yi,yj) 是InfoNCE损失,旨在最大化正样本对的相似性,同时最小化负样本对的相似性。
    • 第二项 γ ∥ S ∥ F 2 \gamma \|S\|_F^2 γSF2 是正则化项,防止 S S S 过拟合。
    • 约束条件确保 S S S 是一个有效的概率分布(每列和为1),且低维空间的结构具有 c c c 个连通分量(在监督场景中 c c c 为类别数)。

3. 特征提取与表示

特征提取过程:
  • 输入:高维样本集 X ∈ R D × n X \in \mathbb{R}^{D \times n} XRD×n
  • 投影:通过投影矩阵 P P P X X X 映射到低维空间,得到嵌入 Y = P T X Y = P^T X Y=PTX,其中 Y ∈ R d × n Y \in \mathbb{R}^{d \times n} YRd×n
  • 自适应构造
    • 使用 Y Y Y 计算相似性矩阵 S S S,从而定义正负样本。
    • 根据InfoNCE损失优化 P P P S S S,使得正样本在低维空间中更紧凑(intra-class compact),负样本更分散(inter-class dispersed)。
特征表示:
  • 低维嵌入 Y Y Y
    • 每个样本 x i x_i xi 被表示为 y i = P T x i ∈ R d y_i = P^T x_i \in \mathbb{R}^d yi=PTxiRd
    • y i y_i yi x i x_i xi 在低维空间中的特征表示,保留了原始数据的判别性信息。
  • 相似性度量
    • f ( y i , y j ) = exp ⁡ ( y i T y j ∥ y i ∥ ∥ y j ∥ σ ) f(y_i, y_j) = \exp\left(\frac{y_i^T y_j}{\|y_i\| \|y_j\| \sigma}\right) f(yi,yj)=exp(yi∥∥yjσyiTyj) 表示 y i y_i yi y j y_j yj 的相似性,基于归一化后的内积。
    • 通过优化, f ( y i , y j ) f(y_i, y_j) f(yi,yj) 对于正样本对更大,对于负样本对更小。

4. 互信息与理论支持

CL-FEFA的一个重要理论依据是其优化目标等价于最大化正样本之间的互信息。

数学推导:
  • 定义 W i , j = H i , j S i , j W_{i,j} = H_{i,j} S_{i,j} Wi,j=Hi,jSi,j,则:
    • W i , j ≠ 0 W_{i,j} \neq 0 Wi,j=0 表示 x i x_i xi x j x_j xj 是正样本。
    • W i , j = 0 W_{i,j} = 0 Wi,j=0 表示 x i x_i xi x j x_j xj 是负样本。
  • 优化目标可重写为:

min ⁡ P , S L = ∑ i = 1 n ∑ j = 1 n − W i , j log ⁡ [ p ( W i , j ≠ 0 ∣ y j , y i ) ] + γ ∥ S ∥ F 2 \min_{P, S} L = \sum_{i=1}^n \sum_{j=1}^n -W_{i,j} \log [p(W_{i,j} \neq 0 | y_j, y_i)] + \gamma \|S\|_F^2 P,SminL=i=1nj=1nWi,jlog[p(Wi,j=0∣yj,yi)]+γSF2

  • 通过贝叶斯公式和假设,推导出:

l i = ∑ j = 1 n W i , j log ⁡ [ 1 + ( n n i − 1 ) p ( y j ) p ( y i ) p ( y j , y i ) ] l_i = \sum_{j=1}^n W_{i,j} \log \left[1 + \left(\frac{n}{n_i} - 1\right) \frac{p(y_j) p(y_i)}{p(y_j, y_i)}\right] li=j=1nWi,jlog[1+(nin1)p(yj,yi)p(yj)p(yi)]

  • n i n_i ni x i x_i xi 的正样本数。
  • p ( y j , y i ) p(y_j, y_i) p(yj,yi) 是联合分布, p ( y j ) p ( y i ) p(y_j) p(y_i) p(yj)p(yi) 是独立分布。
  • 进一步推导:

l i ≥ log ⁡ [ n n i ] − I ( y j , y i ) l_i \geq \log \left[\frac{n}{n_i}\right] - I(y_j, y_i) lilog[nin]I(yj,yi)

  • I ( y j , y i ) I(y_j, y_i) I(yj,yi) y j y_j yj y i y_i yi 的互信息。
  • 因此,最小化 L L L 等价于最大化所有正样本对的互信息 I ( y j , y i ) I(y_j, y_i) I(yj,yi)
意义:
  • 互信息 I ( y j , y i ) I(y_j, y_i) I(yj,yi) 捕捉了正样本之间的非线性统计依赖性,提供了CL-FEFA在特征提取中优势的理论支持。
  • 这使得提取的特征 Y Y Y 更能反映数据的真实潜在结构。

5. 优化策略

CL-FEFA采用交替优化策略求解 P P P S S S

优化问题变换:

min ⁡ P , S , F L = ∑ i = 1 n ∑ j = 1 n − H i , j S i , j log ⁡ f ( y i , y j ) ∑ k = 1 n f ( y i , y k ) + γ ∥ S ∥ F 2 + 2 λ Tr ⁡ ( F T L S F ) \min_{P, S, F} L = \sum_{i=1}^n \sum_{j=1}^n -H_{i,j} S_{i,j} \log \frac{f(y_i, y_j)}{\sum_{k=1}^n f(y_i, y_k)} + \gamma \|S\|_F^2 + 2\lambda \operatorname{Tr}(F^T L_S F) P,S,FminL=i=1nj=1nHi,jSi,jlogk=1nf(yi,yk)f(yi,yj)+γSF2+2λTr(FTLSF)

s.t. ∀ i , S i T 1 = 1 , 0 ⩽ S i ⩽ 1 , F ∈ R n × c , F T F = I \text{s.t.} \quad \forall i, S_i^T \mathbf{1} = 1, 0 \leqslant S_i \leqslant 1, F \in \mathbb{R}^{n \times c}, F^T F = I s.t.i,SiT1=1,0Si1,FRn×c,FTF=I

  • F F F 是辅助变量, λ \lambda λ 是正参数。
交替优化:
  1. 固定 P P P S S S,优化 F F F

min ⁡ F Tr ⁡ ( F T L S F ) , s.t. F T F = I \min_F \operatorname{Tr}(F^T L_S F), \quad \text{s.t.} \quad F^T F = I FminTr(FTLSF),s.t.FTF=I

  • 解为 L S L_S LS c c c 个最小特征值对应的特征向量。
  1. 固定 P P P F F F,优化 S S S

min ⁡ S ∑ j = 1 n ( − H i , j S i , j log ⁡ f ( y i , y j ) ∑ k = 1 n f ( y i , y k ) + γ S i , j 2 + λ ∥ f i − f j ∥ 2 S i , j ) \min_S \sum_{j=1}^n \left(-H_{i,j} S_{i,j} \log \frac{f(y_i, y_j)}{\sum_{k=1}^n f(y_i, y_k)} + \gamma S_{i,j}^2 + \lambda \|f_i - f_j\|^2 S_{i,j}\right) Sminj=1n(Hi,jSi,jlogk=1nf(yi,yk)f(yi,yj)+γSi,j2+λfifj2Si,j)

  • 对每个 i i i 独立求解,转化为向量形式并优化。

总结

  • 正负样本实现:通过 H H H 和动态学习的 S S S 自适应构造,基于特征提取结果。
  • 数学公式:核心是InfoNCE损失和互信息最大化,详见优化目标和推导。
  • 特征提取与表示:从 X X X 通过 P P P 映射到 Y Y Y,低维特征 y i y_i yi 保留判别性并反映潜在结构。
  • 优势:自适应性、鲁棒性(对噪声数据)和理论支持(互信息)。

http://www.kler.cn/a/597573.html

相关文章:

  • 基于Python的个性化试题推荐系统
  • 【数据结构】kmp算法介绍+模板代码
  • 链游开发定制搭建:基于Dapp合约的链上游戏探索
  • Spring事务失效场景
  • prometheus 添加alertmanager添加dingtalk机器人告警
  • Linux 目录结构详解
  • 多阶段构建实现 Docker 加速与体积减小:含文件查看、上传及拷贝功能的 FastAPI 应用镜像构建
  • Spring Boot集成PageHelper:轻松实现数据库分页功能
  • 【Go】切片
  • 给管理商场消防安全搭建消防安全培训小程序全过程
  • 开源链动2+1模式与AI智能名片赋能的S2B2C共享经济新生态
  • 【零基础入门unity游戏开发——unity3D篇】3D模型 —— Model 模型页签
  • C++和标准库速成(十一)——简单雇员系统
  • 360度用户信息赋能老客运营自动化
  • 【AVRCP】深度剖析 AVRCP 中 Generic Access Profile 的要求与应用
  • vue如何获取 sessionStorage的值,获取token
  • 【分布式】冰山(Iceberg)与哈迪(Hudi)对比的基准测试
  • MyBatis-Plus的加载和初始化
  • OpenCV Imgproc 模块使用指南(Python 版)
  • S32K144外设实验(二):ADC单通道单次采样(软件触发)