【机器学习】机器学习的基本分类-半监督学习(Semi-supervised Learning)
半监督学习是一种介于监督学习和无监督学习之间的机器学习方法。它利用少量的标注数据(有监督数据)和大量的未标注数据(无监督数据)来进行模型训练,从而在标注数据不足的情况下,提升模型的性能。
半监督学习的特点
- 数据特性:
- 标注数据成本高(如需要人工标注)。
- 未标注数据易得且数量庞大。
- 目标:
- 使用未标注数据改进监督学习模型的性能。
- 假设:
- 相似性假设(Cluster Assumption):相似的数据点有相同的类别。
- 平滑性假设(Smoothness Assumption):靠近的样本具有相似的输出。
- 流形假设(Manifold Assumption):数据点在低维流形上分布。
半监督学习的算法分类
1. 基于生成模型
使用生成模型捕捉数据分布,从而利用未标注数据。
典型方法:
- 高斯混合模型(GMM)
- 变分自编码器(VAE)
2. 自训练(Self-training)
- 思路:
- 使用初始标注数据训练一个模型;
- 让模型对未标注数据进行预测,将置信度高的预测结果作为伪标签;
- 使用新增的伪标签更新模型。
- 优点:简单易实现。
- 缺点:伪标签错误会导致模型退化。
3. 协同训练(Co-training)
- 思路:
- 使用两种互补的特征视角分别训练两个模型;
- 每个模型生成伪标签并互相标注数据。
- 典型应用:网页分类、信息检索。
4. 图半监督学习
- 思路:
- 将数据建模为图结构,节点表示样本,边权重表示样本相似度;
- 使用标签传播算法(Label Propagation)在图上传播标签。
- 典型方法:
- 标签传播(Label Propagation)
- 谱图方法(Graph Laplacian)
5. 对比学习
- 思路:
- 在无监督情况下学习样本的特征表示,使相似样本在表示空间中更接近。
- 然后结合标注数据进行分类或回归。
6. 一致性正则化(Consistency Regularization)
- 思路:
- 假设模型在未标注数据上的预测应对输入的轻微扰动保持一致;
- 对输入添加噪声或数据增强,约束模型输出的稳定性。
- 典型方法:Pseudo-labeling,Mean Teacher。
常见半监督学习模型
1. Semi-supervised SVM(S^3VM)
- 通过引入未标注数据的目标函数,增强决策边界的平滑性。
2. 半监督生成对抗网络(Semi-supervised GANs)
- 使用生成对抗网络(GAN)生成数据并改进分类器性能。
3. Ladder Networks
- 在网络中加入无监督分支,通过重构未标注数据,辅助训练。
半监督学习的损失函数
-
监督部分损失(有标注数据):
-
无监督部分损失(未标注数据):
- 伪标签损失:
- 一致性正则化损失:
为添加扰动后的样本。
- 伪标签损失:
-
总损失:
应用场景
- 自然语言处理(NLP):
- 情感分析、文本分类。
- 计算机视觉:
- 图像分类、目标检测。
- 医学影像分析:
- 标注数据稀缺场景下的疾病诊断。
- 推荐系统:
- 利用未标注用户行为改进推荐质量。
Python 示例:自训练方法
以下是一个简单的自训练实现伪代码:
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
import numpy as np
# 生成数据集
X, y = make_classification(n_samples=1000, n_features=20, n_classes=2, random_state=42)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
# 模拟未标注数据
X_train_labeled, X_train_unlabeled, y_train_labeled, _ = train_test_split(X_train, y_train, test_size=0.7, random_state=42)
# 初始化模型
model = RandomForestClassifier()
# 训练初始模型
model.fit(X_train_labeled, y_train_labeled)
# 自训练过程
for _ in range(5): # 多次迭代
# 对未标注数据预测
pseudo_labels = model.predict(X_train_unlabeled)
pseudo_probs = model.predict_proba(X_train_unlabeled).max(axis=1)
# 筛选高置信度样本
high_confidence_idx = pseudo_probs > 0.9
X_high_confidence = X_train_unlabeled[high_confidence_idx]
y_high_confidence = pseudo_labels[high_confidence_idx]
# 合并伪标签数据
X_train_labeled = np.vstack((X_train_labeled, X_high_confidence))
y_train_labeled = np.hstack((y_train_labeled, y_high_confidence))
# 移除已标注的未标注数据
X_train_unlabeled = X_train_unlabeled[~high_confidence_idx]
# 重新训练模型
model.fit(X_train_labeled, y_train_labeled)
# 测试模型
accuracy = model.score(X_test, y_test)
print(f"Accuracy: {accuracy:.2f}")
输出结果
Accuracy: 0.84
总结
半监督学习通过利用未标注数据的潜在信息,在标注数据有限的场景下显著提高了模型的性能。根据具体任务和数据特点,可以选择不同的半监督方法来优化模型效果。