当前位置: 首页 > article >正文

PP-PLL:基于概率传播的部分标签学习

以下是对论文《PP-PLL: Probability Propagation for Partial Label Learning》的总结,按照假设、创新点、技术路线、技术实现细节、具体的数学公式、实验结果分析和结论的结构进行。


假设

  • 流形假设:论文假设特征空间中的样本遵循流形结构,即相邻样本的标签分布相似。这一假设认为,样本在特征空间中的拓扑关系可以用来推断其标签分布。
  • 候选标签的互斥性:每个样本的真实标签隐藏在候选标签集中,且候选标签之间具有互斥性。论文假定真实标签不会被大量的假阳性标签完全淹没,从而可以通过适当的方法从候选标签中提取出来。

创新点

  • 双凸正则化框架:提出了一种双凸正则化函数,结合了输入特征到真实标签的线性映射和基于流形假设的标签传播。这种框架在优化过程中同时考虑了特征信息和样本间的拓扑关系。
  • 概率传播方法:通过交替优化实现概率传播,增强候选标签之间的互斥性,有效防止真实标签被大量假阳性候选标签淹没,提升标签消歧的准确性。
  • 拓扑结构作为附加信息:利用训练样本之间的拓扑关系(如k近邻构建的加权图)作为附加信息,加强标签互斥性,提高模型对部分标签数据的鲁棒性。

技术路线

论文的技术路线分为以下几个步骤:

  1. 构建加权图:使用k近邻(k-NN)方法构建有向加权图,捕捉训练样本之间的拓扑关系,为后续标签传播提供基础。
  2. 定义目标函数:设计一个双凸目标函数,包含三个部分:
    • 保真项:通过KL散度衡量标签分布与条件概率矩阵的接近程度。
    • 正则化项:采用Frobenius范数防止参数矩阵冗余。
    • 平滑项:基于流形假设,确保标签分布在拓扑结构上的平滑性。
  3. 交替优化:通过交替优化方法求解目标函数,分别更新标签分布矩阵 F \mathbf{F} F和参数矩阵 θ \mathbf{\theta} θ
  4. 预测阶段:对未见样本,计算其条件概率矩阵,并通过标签传播获得最终的标签分布,进而预测真实标签。

技术实现细节

  • 加权图构建:基于k-NN构建有向图,权重通过优化线性最小二乘问题计算,并对权重矩阵进行归一化处理,以避免概率发散。
  • 目标函数形式

J ( D , θ , F ) = L ( D , F , θ ) + λ Ω ( θ ) + μ Q ( F ) \mathcal{J}(\mathcal{D}, \mathbf{\theta}, \mathbf{F}) = \mathcal{L}(\mathcal{D}, \mathbf{F}, \mathbf{\theta}) + \lambda \Omega(\mathbf{\theta}) + \mu \mathcal{Q}(\mathbf{F}) J(D,θ,F)=L(D,F,θ)+λΩ(θ)+μQ(F)

其中:

  • L \mathcal{L} L:保真项,使用KL散度衡量标签分布与条件概率的差异。
  • Ω \Omega Ω:正则化项,采用Frobenius范数控制参数复杂度。
  • Q \mathcal{Q} Q:平滑项,确保标签分布在流形上的连续性。
  • 优化过程
    • 更新 F \mathbf{F} F:固定 θ \mathbf{\theta} θ,通过标签传播近似求解最优标签分布。
    • 更新 θ \mathbf{\theta} θ:固定 F \mathbf{F} F,使用L-BFGS优化算法更新参数矩阵。
  • 初始化:条件概率矩阵 C \mathbf{\mathcal{C}} C初始化为候选标签集内的均匀分布,即每个候选标签初始概率相等。

具体的数学公式

  • 条件概率定义

P ( y i = j ∣ x i , θ ) = { exp ⁡ ( θ j ⊤ x i ) ∑ j ′ ∈ S i exp ⁡ ( θ j ′ ⊤ x i ) if  j ∈ S i 0 otherwise P(y_i = j | \mathbf{x}_i, \mathbf{\theta}) = \begin{cases} \frac{\exp(\mathbf{\theta}_j^\top \mathbf{x}_i)}{\sum_{j' \in S_i} \exp(\mathbf{\theta}_{j'}^\top \mathbf{x}_i)} & \text{if } j \in S_i \\ 0 & \text{otherwise} \end{cases} P(yi=jxi,θ)= jSiexp(θjxi)exp(θjxi)0if jSiotherwise

表示样本 x i \mathbf{x}_i xi的标签 j j j的条件概率,仅在候选标签集 S i S_i Si内非零。

  • 保真项

L ( D , F , θ ) = ∑ i = 1 m ∑ j ∈ S i F i j log ⁡ F i j C i j \mathcal{L}(\mathcal{D}, \mathbf{F}, \mathbf{\theta}) = \sum_{i=1}^{m} \sum_{j \in S_i} \mathbf{F}_{i j} \log \frac{\mathbf{F}_{i j}}{\mathbf{\mathcal{C}}_{i j}} L(D,F,θ)=i=1mjSiFijlogCijFij

使用KL散度度量标签分布 F \mathbf{F} F与条件概率 C \mathbf{\mathcal{C}} C的差异。

  • 平滑项

Q ( F ) = 1 2 ∑ i , j = 1 n w i j ∥ F i D i i − F j D j j ∥ 2 2 \mathcal{Q}(\mathbf{F}) = \frac{1}{2} \sum_{i,j=1}^{n} w_{ij} \left\| \frac{\mathbf{F}_i}{\sqrt{D_{ii}}} - \frac{\mathbf{F}_j}{\sqrt{D_{jj}}} \right\|_2^2 Q(F)=21i,j=1nwij Dii FiDjj Fj 22

其中 w i j w_{ij} wij是加权图中的权重, D i i D_{ii} Dii是对角矩阵 D \mathbf{D} D的对角元素,确保相邻样本的标签分布相似。

  • 优化问题

min ⁡ θ , F ∑ i = 1 m ∑ j ∈ S i F i j log ⁡ F i j C i j + λ 2 ∥ θ ∥ F 2 + μ 2 ∑ i , j = 1 n w i j ∥ F i D i i − F j D j j ∥ 2 2 \min_{\mathbf{\theta}, \mathbf{F}} \sum_{i=1}^{m} \sum_{j \in S_i} \mathbf{F}_{i j} \log \frac{\mathbf{F}_{i j}}{\mathbf{\mathcal{C}}_{i j}} + \frac{\lambda}{2} \|\mathbf{\theta}\|_F^2 + \frac{\mu}{2} \sum_{i,j=1}^{n} w_{ij} \left\| \frac{\mathbf{F}_i}{\sqrt{D_{ii}}} - \frac{\mathbf{F}_j}{\sqrt{D_{jj}}} \right\|_2^2 θ,Fmini=1mjSiFijlogCijFij+2λθF2+2μi,j=1nwij Dii FiDjj Fj 22

约束条件: ∑ j = 1 q F i j = 1 , F i j ≥ 0 , ∀ i \sum_{j=1}^{q} \mathbf{F}_{i j} = 1, \mathbf{F}_{i j} \geq 0, \forall i j=1qFij=1,Fij0,i,目标是最小化总损失。


实验结果分析

  • 控制UCI数据集:在不同部分标签比例 p p p(0.1到0.7)和干扰标签集大小 r r r(1到3)下,PP-PLL在大多数情况下优于其他部分标签学习算法(如PL-KNN、PL-SVM等),显示出较强的分类性能。
  • 真实世界数据集:在Bird Song Classification、Automatic Face Naming(如Lost)、Facial Age Estimation(如FG-NET)和Objective Classification(如MSRCv2)等任务中,PP-PLL表现出色,仅在Yahoo! News数据集上略逊于GM-PLL、PL-SVM和PL-ECOC。
  • 参数敏感性分析:PP-PLL在不同参数配置( k k k μ \mu μ λ \lambda λ)下表现稳定,迭代次数达到20-40次时模型收敛,验证了算法的鲁棒性和收敛性。

结论

  • 优势:PP-PLL通过概率传播和流形假设,有效从部分标签数据中学习,增强了候选标签的互斥性,避免真实标签被假阳性标签淹没。
  • 性能:在控制UCI数据集和真实世界数据集上,PP-PLL的性能优于或与最先进的部分标签学习方法相当,展现了良好的泛化能力和预测精度。
  • 未来工作:论文建议探索更有效的加权图构建方法,尤其是在候选标签集较大时,提高模型对真实标签信息的利用效率。此外,可以结合候选标签集的概率分布进一步优化模型。

http://www.kler.cn/a/600767.html

相关文章:

  • 基于概率图模型的蛋白质功能预测
  • DeepSeek 发布DeepSeek-V3-0324 版本 前端与网页开发能力、推理与多任务能力提升
  • 春风拂处,杏韵流芳-中小企实战运营和营销工作室博客
  • 搜索旋转排序数组
  • LeetCode 2711:对角线上不同值的数量差解题思路与优化方法
  • DeepSeek 的组网方案介绍
  • 详解vector容器
  • WPF Binding转换器Converter
  • 浅尝AI编程工具Trae
  • 嵌入式八股文学习——基类构造与析构、成员初始化及继承特性详解
  • Zerotier虚拟局域网在树莓派的应用和Syncthing配合Zerotier实现端到端文件同步
  • linux命令行工具进阶
  • 定时器(java)
  • python每日十题(10)
  • JS—script标签加载:1分钟掌握async与defer
  • TensorDataser和DataLoader的解释与使用
  • 最长公共子序列LCS -- 全面分析版
  • 爱普生SG-3031CMA有源晶振在汽车雷达中的应用
  • vue2相关 基础命令
  • [NO-WX179]基于springboot+微信小程序的在线选课系统