当前位置: 首页 > article >正文

LTV预估 | 多视角对比学习框架CMLTV

😄 cmltv的loss好多哟,花样好多哟~

文章目录

  • 1 精简总结
  • 2 背景&挑战
  • 3 方法
  • 4 实验

✅【arxiv-2023 华为 CMLTV】《Contrastive Multi-view Framework for Customer Lifetime Value Prediction》
论文链接: https://arxiv.org/pdf/2306.14400

1 精简总结

基于多视角的对比学习框架:该框架通过联合优化具有不同特征和优势的多种回归器来编码和融合全面的知识,通过互补的知识来提高模型的鲁棒性,并通过对比学习捕捉样本的相关性,以减轻对数据丰富性的依赖。

说白了,其实就是多任务loss+对比学习loss。包含了:分布基回归器: 使用概率模型(如对数正态和伽马分布)来近似真实的LTV分布。对数基回归器: 预测LTV的对数值,适用于神经网络处理。分类基回归器: 将回归任务转换为分类问题,然后从类别概率中重建实值分数。通过对比学习机制显式编码样本之间的相关性,同时构建二分类购买预测器和LTV回归器之间的有机连接,分类对比损失: 比较正样本和负样本的平均购买概率。回归对比损失: 规范化回归结果与预测购买概率的正相关性。

2 背景&挑战

  • 稀疏性:付费数据不平衡,大多数用户不付费。
  • 目前的pltv方法采用单视角建模存在准确度低和知识提取存在偏差的问题。

3 方法

在这里插入图片描述

首先,过一个basic feature representation model(可以是MLP/DeepFM/DCN等)来得到基础的交互特征h,再输入给后面的各个学习模块。

【付费概率预测模型】
特征h过mlp+sigmoid,得到付费概率,采用二分类交叉熵loss。
在这里插入图片描述


【分布基回归器】
使用概率模型(推荐对数正态和伽马分布)来近似真实的LTV分布,论文采用gamma分布,对应参数θ包括:形状参数alpha、速率参数lam(尺度参数beta的倒数)通过mlp+relu学习,每个样本会预测一个θ。概率密度函数则由θ决定。

  • 注:因gamma分布中,alpha、lam均要求>0,所以以下公式中,log(1+exp())为了确保输出的非负性、提高数值稳定性、保持函数的平滑性以及利用其凸性特征。这些特性使得它在神经网络的设计和训练中非常有用。
  • loss为概率密度函数的负对数似然,也就是负的最大似然估计。
  • pltv则等于gamma分布的期望,即pltv=alpha/lam

在这里插入图片描述


【对数基回归器】
该回归器就很普通了。LTV原始值有可能会很大,但是取对数后差异小,更适合神经网络来处理。该网络由mlp+relu构成。损失函数为mse_loss。

  • pltv=该回归器的输出
    在这里插入图片描述

【分类基回归器】
将回归任务转换为分类问题,然后从类别概率中重建的值作为pltv。由于 LTV 分布通常是长尾的,因此可以使用对数运算将整个范围分为几个分类桶缓解长尾问题。为保留更细粒度的数值信息,论文使用以2为底的对数而不是更大的底数进行分箱。

  • ltv label对应的类别c为,具体实现时,c可以做完log后做下clip处理,限制下上限值:
    在这里插入图片描述
    1+y也是为了确保非负

  • 类别预测概率为:
    在这里插入图片描述

  • loss则为多分类交叉熵损失函数咯:
    在这里插入图片描述

  • pltv则为根据预测的各类别的概率重建的值:
    在这里插入图片描述

解释一下下式吧:每个区间的中心作为某类别的值,聚合各区间的值*对应概率即为预测值。之所以这里的区间上下限为什么是这样子,是因为上面用了log1p:
在这里插入图片描述

【混合对比学习】
额,别看图里这么复杂,其实原理很简单,这个操作是在batch内样本间进行的,以我了解其实大部分对比学习都是在batch内做的吧。通过对比学习机制显式编码样本之间的相关性,以减轻对数据丰富性的依赖。同时构建二分类购买预测器和LTV回归器之间的有机连接。
在这里插入图片描述

分类对比损失:
比较正样本和负样本的平均购买概率。通常假定正样本的购买概率大于负样本。然而直接比较每对样本是不可行的,因为噪声样本可能会误导模型生成低质量的对比组合,这对模型优化是不利的。但平均而言正样本应该比负样本具有更高的购买倾向。
在这里插入图片描述


回归对比损失:
假设具有更高LTV的用户可能也具有更高的购买概率。提出了一种回归对比学习方法来规范回归结果,使其与预测的购买概率正相关。通过这种方式,同一个batch中不同样本之间的相关性被明确地编码到模型学习中,同时分类和回归部分通过这些损失自然地连接起来,以便它们编码的知识可以交换和共享。前面介绍的3种回归器都采用如下loss公式:
在这里插入图片描述

【汇总:多任务训练与预测】
训练阶段:也就是将上面介绍的各种loss相加了:
1个付费概率分类损失、3个回归损失、1个分类对比学习损失、3个回归对比学习损失:
在这里插入图片描述
注:付费概率分类损失、分类对比学习损失是在所有样本上计算的。而回归损失只在正样本上计算,因为严重的付费/不付费数据不平衡问题回损害精度。

预测阶段,也就是上面介绍的各pltv相加,受ZILN启发吧,最终pltv也为付费概率与各pltv的相乘,权重alpha与beta均设为0.3,通过实验确定。非可学习参数,论文说作为可学习参数效果不好:
在这里插入图片描述

  

4 实验

指标基本均有提升
在这里插入图片描述

  • 在离线与在线实验中验证了模型的有效性(对比了其他baselines),在线实验中,支付金额相比对照组提升32.26%,推理延迟增加9%(可容忍)。这一显著改善主要是由于低消费和中消费水平用户支付金额的增加(高消费用户贡献的收入与基线和我们的方法相似)。这一发现表明,我们的方法在提高广泛用户的活跃性方面具有关键优势,而不仅仅是针对高支出用户。
  • cmltv已经在线部署,为数亿移动用户提供服务,并改善他们的体验。
    在这里插入图片描述

缺点:
论文总结了如下缺点:

  • 由于付费数据的稀疏,导致部分预测样本的付费概率很低,从而预测的pltv不够准确。
  • 模型很难预测高pltv,因为这类样本非常少。
  • 对比学习损失,需要一个很大的batch_size,否则单个batch内正样本太少了,loss算出来的nan,不稳定。
  • 对于冷启用户/游戏,很难预测准确的pltv。

http://www.kler.cn/a/522938.html

相关文章:

  • 护眼好帮手:Windows显示器调节工具
  • 【MySQL】初始MySQL、库与表的操作
  • Ceph:关于Ceph 中使用 RADOS 块设备提供块存储的一些笔记整理(12)
  • 【教学类-89-02】20250128新年篇02——姓名藏头对联(星火讯飞+Python,五言对联,有横批)
  • Python 数据分析 - Matplotlib 绘图
  • 如何跨互联网adb连接到远程手机-蓝牙电话集中维护
  • 四层网络模型
  • mybatis(112/134)
  • Windows 程序设计5:文件的删除、复制与重命名操作
  • JVM栈溢出线上环境排查
  • 基于Ubuntu交叉编译ZLMediaKit
  • PCB Editor层叠文件(Gerber文件输出-01)
  • 【自然语言处理(NLP)】机器翻译之数据处理(数据收集、数据清洗、数据分词、数据标注、数据划分)
  • 2025年美赛数学建模C题 奥运奖牌表的模型
  • 2025.1.21——八、[HarekazeCTF2019]Avatar Uploader 2(未完成) 代码审计|文件上传
  • 代码随想录算法训练营第三十八天-动态规划-完全背包-322. 零钱兑换
  • 思维练习题
  • 【Unity3D】实现2D小地图效果
  • 忘记宝塔的访问地址怎么找
  • 【教学类-89-02】20250128新年篇02——姓名藏头对联(星火讯飞+Python,五言对联,有横批)
  • 项目测试之MockMvc
  • 【数据结构与算法】九大排序算法实现详解
  • 中科大:LLM检索偏好优化应对RAG知识冲突
  • 面向对象设计原则 - SOLID原则 (基于C++)
  • [Dialog屏幕开发] 设置方式对话框
  • 使用eNSP配置GRE VPN实验