当前位置: 首页 > article >正文

VAE中的负对数似然损失与自适应容忍度

stable diffusion中的vae并没有直接使用L1损失作为重建损失,而是采用了负对数似然损失,代码如下:

rec_loss = torch.abs(inputs.contiguous() - reconstructions.contiguous())
nll_loss = rec_loss / torch.exp(self.logvar) + self.logvar
nll_loss = torch.sum(nll_loss) / nll_loss.shape[0]

其中self.logvar是一个可以学习的参数。

这里涉及到拉普拉斯分布,其概率密度函数如下

p(x| \mu ,b) =\frac{1}{2b}+e^{-\frac{|x-\mu|}{b}}

拉普拉斯与正太分布的区别如下,

 

        不直接使用L1损失而采用负对数似然损失是因为考虑到对于纹理,边界这些变化比较剧烈的地方需要更大的容忍度,而不是要求图像完全还原像素。

 而使用拉普拉斯不使用正太分布的愿意有以下几点。

(1) 对异常值的鲁棒性
  • 拉普拉斯分布的长尾特性
    拉普拉斯分布对远离均值的值(异常值)的惩罚是线性的(L1),而高斯分布的惩罚是二次的(L2)。

    • 实际意义:在图像生成任务中,某些像素可能存在较大的重建误差(如复杂纹理区域),使用 L1 损失对这些异常值的敏感度更低,模型优化更稳定。

    • 示例:若某个像素的误差为 10,L1 损失贡献为 10,L2 损失贡献为 100。拉普拉斯分布更容忍大误差,避免模型被少数异常像素主导。

(2) 稀疏性诱导
  • L1 正则化与稀疏性
    拉普拉斯分布作为先验时,会倾向于产生稀疏的重建误差(许多误差接近零,少数较大)。

    • 在生成模型中的应用:图像中大部分区域(如平坦背景)容易精确重建,误差集中在小部分复杂区域。拉普拉斯假设更符合这种特性。

(3) 建模非对称性与多模态的灵活性
  • 拉普拉斯分布的对称性限制
    尽管拉普拉斯分布是对称的,但其对误差的线性惩罚比高斯分布更能适应实际数据中非均匀的误差分布。

    • 对比高斯分布:高斯分布强加了一个平滑的二次惩罚,假设误差在所有区域均匀分布,这在真实数据中往往不成立。


http://www.kler.cn/a/575970.html

相关文章:

  • Windows编程----进程:命令行参数
  • WebRTC简介
  • NotePad++ 安装Jsonviewer
  • [密码学实战]Java实现TLS 1.2双向认证
  • Mybatis集合嵌套查询,三级嵌套
  • URL中的特殊字符与web安全
  • 深度学习算法实战——情感语音合成(主页有源码)
  • DeepSeek + ReAct 实现 Agent
  • 20250307-vue组件基础1
  • Dify+DeepSeek | Excel数据一键可视化(创建步骤案例)(echarts助手.yml)(文档表格转图表、根据表格绘制图表、Excel绘制图表)
  • SDK编程,MFC编程,WTL编程之间的关系
  • 146.LRU缓存
  • (二十三)Java-synchronized
  • 基于Docker去创建MySQL的主从架构
  • DeepSeek × 豆包深度整合指南:工作流全解析
  • vue管理布局左侧菜单栏NavMenu
  • 蓝桥备赛(11)- 数据结构、算法与STL
  • 在 MySQL 的默认事务隔离级别(可重复读,REPEAT READ)下,事务 A 和事务 B 对同一行数据的操作时会产生什么呢?
  • “此电脑”中删除WPS云盘方法(百度网盘通用)
  • C++的基础(类)练习