对比学习训练是如何进行的
对比学习(Contrastive Learning)是一种自监督学习的方法,旨在通过拉近相似样本的表示、拉远不相似样本的表示来学习特征表示。在训练过程中,模型并不依赖标签,而是通过样本之间的相似性进行学习。以下是对比学习的基本原理和具体的训练流程:
1. 基本原理
对比学习的核心目标是通过构造正样本对(相似样本)和负样本对(不相似样本),让模型学习到对相似样本的特征表示更接近,而对不相似样本的特征表示更远。常用的对比学习方法有 SimCLR、MoCo 等。
- 正样本对:指的是经过不同增强方式得到的同一图像的不同视角,或在一些情况下是语义上相关的图像对。
- 负样本对:指的是不同图像对,它们在语义上或像素空间上不相关。
2. 对比学习的训练流程
以MoCo为例:
其中momentum encoder是动量编码器,将encoder中的k的参数更新过程使用动量公式来约束,在MoCo中,作者将m设置为0.99(即momentum encoder中k的参数除了刚开始赋值给他,encoder不进行反向传播更新,往后全靠自己更新),这样就可以使得k的参数更新更依赖于之前k的参数了。
步骤1:样本增强
- 对每个输入样本(例如图像),通过数据增强(如随机裁剪、旋转、颜色扰动等)生成多个视图。每个样本经过增强后形成一个正样本对,即该样本的两个不同增强版本。
步骤2:特征提取
- 将增强后的样本输入到神经网络(如卷积神经网络或 Transformer)中,提取它们的特征表示。特征提取器通常不带标签地训练,模型在这个过程中学习到数据的潜在结构。
步骤3:相似性度量
-
对每个样本对,计算它们的特征表示之间的相似度。通常使用余弦相似度(Cosine Similarity)来衡量特征向量之间的相似性。
- 对于正样本对(相同样本的不同视图),希望它们的特征表示尽量接近,即相似度高。
- 对于负样本对(不同样本),希望它们的特征表示尽量远,即相似度低。
步骤4:损失函数
-
对比学习常用的损失函数是对比损失(Contrastive Loss)或NCE(Noise Contrastive Estimation)损失,其中最常用的是 InfoNCE 损失。该损失函数通过极大化正样本对的相似性,极小化负样本对的相似性来优化模型。
InfoNCE 损失函数的公式如下:
在反向传播过程中,L分别对q和k中的权重w微分来进行参数更新,使得权重作用于与q相似性高的k
后的loss更低
步骤5:优化与更新
- 利用梯度下降算法最小化对比损失,从而更新网络参数,使模型能够学到更好的特征表示。
3. 监督对比学习
在有标签的情况下,可以利用标签信息来构造更加有效的正负样本对。**监督对比学习(Supervised Contrastive Learning)**通过使用相同类别的样本作为正样本对,不同类别的样本作为负样本对,这种方式可以进一步提升模型的分类性能。具体步骤如下:
- 构建正样本对:对于每个样本,选择与其类别相同的其他样本作为正样本,而非只依赖数据增强生成正样本对。
- 构建负样本对:选择不同类别的样本作为负样本。
通过引入监督信息,监督对比学习可以更加有效地对齐同类别样本的特征表示,从而提升模型的泛化能力。
这种方式确保了模型能够更好地利用语言模式中的信息,增强对跨领域数据的泛化能力。相当于对正样本对最大化,负样本对最小化来使模型对于同类别的样本有着更好的辨识能力;在一些E2D的模型中,可以保留或冻结编码器部分当作预训练编码器,然后进行下游任务。