当前位置: 首页 > article >正文

大语言模型---LoRA中损失值的计算

文章目录

    • 概要
    • 损失计算流程
    • 小结

概要

Llama-7B模型的LoRA微调训练中,通过使用Cross-Entropy Loss来度量模型输出的预测分布和真实标签分布之间的距离,来衡量模型的准确性。 本文主要介绍LoRA中损失值的计算流程。
Cross-Entropy Loss作用:是深度学习和机器学习中常用的损失函数之一,主要用于分类任务。

损失计算流程

以下是 LLaMA-7B 模型中损失计算的三个步骤:

  1. 计算logits矩阵(生成分数)
    模型最后一层MLP的输出与模型词表权重进行点乘计算生成一个行数(nvocab)为32,000 ,列数(seq)为4096的 logits 矩阵,每个元素对应词汇表中的一个词,表示生成该词的“分数”。

  2. Softmax 转换(分数变概率)
    将 logits 矩阵经过 Softmax 转换为概率分布矩阵 Y ^ ∈ 𝐹 𝒏 𝒗 𝒐 𝒄 𝒂 𝒃 ∗ 𝒔 𝒆 𝒒 \hat{{Y}}∈𝐹^{𝒏𝒗𝒐𝒄𝒂𝒃∗𝒔𝒆𝒒} Y^Fnvocabseq,使得logits矩阵每个位置上的元素转化为一个概率值 Y ^ 𝒕 , 𝒋 \hat{\mathcal{Y}}_{𝒕,𝒋} Y^t,j ,表示模型在该位置生成词的可能性。

  3. 交叉熵损失
    根据标签计算损失。在每个位置上,交叉熵损失只计算标签对应的词的概率,公式如下:
    在这里插入图片描述
    其中, Y 𝒕 , 𝒋 \mathcal{Y}_{𝒕,𝒋} Yt,j是标签的独热编码矩阵 Y ∈ 𝐹 𝒏 𝒗 𝒐 𝒄 𝒂 𝒃 ∗ 𝒔 𝒆 𝒒 {Y}∈𝐹^{𝒏𝒗𝒐𝒄𝒂𝒃∗𝒔𝒆𝒒} YFnvocabseq的元素,在该矩阵中,正确词的位置为1,其余为0。

小结

关键点

  • logits 表示未归一化分数,用于生成概率。
  • Softmax 将 logits 转为概率分布,确保总和为 1。
  • 交叉熵损失仅计算正确标签的概率对数,以评估预测的准确性。

http://www.kler.cn/a/408067.html

相关文章:

  • 基于vue框架的的网约车订单管理系统iu447(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。
  • c#注册机制作(根据机器码生成注册码和注册文件)
  • 嵌入式LVGL自定义纯数字键盘
  • 使用argo workflow 实现springboot 项目的CI、CD
  • 视频美颜SDK开发详解:构建实时直播美颜平台的全流程
  • php用for循环比较数组对应值是否包含的方法,可错位比较
  • 当产业经济插上“数字羽翼”,魔珐有言AIGC“3D视频创作大赛”成功举办
  • 功耗中蓝牙扫描事件插桩埋点
  • Qt-常用输入类控件
  • 好用的 IDEA 插件
  • 【LeetCode面试150】——219存在重复元素
  • C语言内存结构
  • 微网能量管理研究
  • [高阶数据结构(一)]并查集详解
  • 泷羽sec-星河飞雪-shell-5
  • 钉钉免登录接口
  • Nginx正向代理處理HTTPS請求詳解
  • 【系统架构设计师】真题论文: 论软件可靠性设计技术的应用(包括解题思路和素材)
  • java excel 导入各种踩坑
  • el-table设置轻提示:show-overflow-tooltip=“true“,改变轻提示宽度