当前位置: 首页 > article >正文

大模型(LLM)面试全解:主流架构、训练目标、涌现能力全面解析

系列文章目录

大模型(LLMs)基础面
01-大模型(LLM)面试全解:主流架构、训练目标、涌现能力全面解析

大模型(LLMs)进阶面


文章目录

  • 系列文章目录
  • 大模型(LLMs)基础面
  • 一、目前主流的开源模型体系
    • 1.1 Encoder-Decoder 模型
      • 1.1.1 架构特点
      • 1.1.2 优缺点与适用场景
    • 1.2 Causal Decoder 模型
      • 1.2.1 架构特点
      • 1.2.2 优缺点与适用场景
    • 1.3 Prefix Decoder 模型
      • 1.3.1 架构特点
      • 1.3.2 优缺点与适用场景
  • 二、Prefix Decoder、Causal Decoder 和 Encoder-Decoder 的区别
    • 2.1 核心区别
      • 2.1.1 Encoder-Decoder 架构
      • 2.1.2 Causal Decoder 架构
      • 2.1.3 Prefix Decoder 架构
  • 三、大模型(LLM)的训练目标是什么?
    • 3.1 语言模型目标
    • 3.2 去噪自编码器目标
  • 四、涌现能力是什么?
    • 4.1 涌现能力的定义
      • 4.1.1 原因分析
      • 4.1.2 Decoder-Only 架构的优越性
  • 五、大模型的规模意义
    • 5.1 参数规模的含义
  • 六、大模型的优点和缺点
    • 6.1 大模型的优点
    • 6.2 大模型的缺点
  • 七、总结


大模型(LLMs)基础面

大语言模型(Large Language Models, LLMs)是人工智能技术中的重要组成部分,其广泛应用在自然语言处理(NLP)任务中。本文将系统化地从大模型的核心技术点、架构特点、训练目标到优缺点进行解析,并回答相关技术面试问题,帮助读者全面理解LLMs。


一、目前主流的开源模型体系

目前,大语言模型(LLMs)的开源体系主要分为以下三类架构:Encoder-DecoderCausal DecoderPrefix Decoder。这三种架构在注意力机制设计上各有特色,并适配不同的任务场景。
在这里插入图片描述

从上图可以直观看出三种模型架构的差异性:

  1. Encoder-Decoder:输入采用双向注意力,输出采用单向注意力。
  2. Causal Decoder:输入和输出均采用单向注意力。
  3. Prefix Decoder:输入采用双向注意力,输出采用单向注意力,是一种折中架构。

接下来,我们将深入解析各类模型的架构特点、优缺点及适用场景。

1.1 Encoder-Decoder 模型

1.1.1 架构特点

  • 双向注意力(输入端):Encoder 通过双向注意力机制捕获整个输入序列的全局上下文信息,使得每个词的表示与全局句子结构关联紧密。
  • 单向注意力(输出端):Decoder 的单向注意力机制使得生成当前词时,只能访问前面的已生成词,从而满足文本生成的自回归特性。
  • 代表模型:T5、Flan-T5、BART。

1.1.2 优缺点与适用场景

  • 优点
    • 在偏理解的 NLP 任务(如机器翻译、问答、文本摘要)中表现优异。
    • 能够处理输入输出序列具有明确对应关系的任务。
  • 缺点
    • 在长文本生成任务中效果较差,难以保持生成结果的一致性。
    • 训练和推理效率较低。
  • 适用场景
    • 需要深度理解输入文本的任务,例如:
      • 机器翻译:准确捕捉输入语义并生成高质量翻译文本。
      • 摘要生成:对长文本提炼核心信息。

1.2 Causal Decoder 模型

1.2.1 架构特点

  • 单向注意力:Causal Decoder 使用严格的单向注意力机制(左到右),生成当前词时仅能依赖其前面已生成的词。这种机制适合自回归任务。
  • 自回归训练目标:训练目标与下游任务一致,简化了训练过程。
  • 代表模型:GPT 系列(GPT-2、GPT-3、GPT-4)、LLaMA 系列。

1.2.2 优缺点与适用场景

  • 优点
    • 训练效率高:由于单向注意力的简单性,训练效率更高。
    • 生成能力强:在文本生成任务(如对话生成、写作辅助)中表现更佳。
    • 涌现能力:随着模型参数规模的增加,表现出强大的 zero-shot 和 few-shot 学习能力。
  • 缺点
    • 对输入文本的深度理解能力不如 Encoder-Decoder 架构。
  • 适用场景
    • 偏生成任务,例如:
      • 对话生成:如 ChatGPT 的对话功能。
      • 长文本生成:如文章创作和自动写作辅助。

1.3 Prefix Decoder 模型

1.3.1 架构特点

  • 折中型架构:Prefix Decoder 的输入序列采用双向注意力机制,从而保留 Encoder 的全局理解能力;而输出序列则采用单向注意力,以满足生成任务的需求。
  • 代表模型:GLM-130B、ChatGLM、ChatGLM2。

1.3.2 优缺点与适用场景

  • 优点
    • 综合了 Encoder-Decoder 和 Causal Decoder 的特点,在理解能力与生成能力之间取得平衡。
    • 适用于需要理解输入文本并生成合理输出的任务。
  • 缺点
    • 由于架构折中的复杂性,训练效率低于 Causal Decoder 模型。
  • 适用场景
    • 平衡理解与生成的任务,例如:
      • 对话生成与文本摘要的结合
      • 复杂问答任务:需要理解问题背景并生成准确答案。

二、Prefix Decoder、Causal Decoder 和 Encoder-Decoder 的区别

2.1 核心区别

三种架构的关键区别在于注意力机制(Attention Mechanism)的实现方式及其mask规则:
在这里插入图片描述

2.1.1 Encoder-Decoder 架构

  • 输入:采用双向注意力,能够捕捉整个输入序列的全局上下文关系。
  • 输出:采用单向注意力,仅关注输出序列中已生成的部分。
  • 应用场景:适合输入输出文本具有明确对应关系的任务,例如翻译、问答。

2.1.2 Causal Decoder 架构

  • 采用严格的单向注意力规则:生成当前单词时仅能访问前面的单词。
  • 应用场景:适合文本生成任务,尤其是长文本生成。

2.1.3 Prefix Decoder 架构

  • 输入序列采用双向注意力,输出序列采用单向注意力。
  • 应用场景:兼顾理解与生成的场景。

三、大模型(LLM)的训练目标是什么?

3.1 语言模型目标

基于语言模型的训练目标是预测序列中每个单词的条件概率,优化目标函数如下:

  L L M ( x ) = ∑ i = 1 n log ⁡ P ( x i ∣ x < i ) \ \mathcal{L}_{LM}(x) = \sum_{i=1}^{n} \log P(x_i | x_{<i})  LLM(x)=i=1nlogP(xix<i)

  • 特点:通过最大似然估计(Maximum Likelihood Estimation, MLE)来训练模型。
  • 效率比较:Causal Decoder > Prefix Decoder。

3.2 去噪自编码器目标

通过对文本进行随机扰动或遮掩,训练模型恢复原始文本。目标函数如下:

  L D A E ( x ) = log ⁡ P ( x ~ ∣ x / x ~ ) \ \mathcal{L}_{DAE}(x) = \log P(\tilde{x}|x_{/\tilde{x}})  LDAE(x)=logP(x~x/x~)

  • 代表模型:GLM-130B、T5。
  • 实现难度:相比语言模型更高,但适合于一些特殊任务。

四、涌现能力是什么?

4.1 涌现能力的定义

涌现能力(Emergent Capabilities)指模型在参数规模增加后,表现出一些原本无法完成或难以完成的任务能力。

4.1.1 原因分析

  1. 评价指标不平滑:任务指标的非线性变化导致宏观上呈现出“突变”现象。
  2. 复杂任务分解:复杂任务通常由多个子任务组成,子任务的性能平滑提升,但整体任务表现出显著改进。

4.1.2 Decoder-Only 架构的优越性

  • 在无标注数据上,通过自监督学习发挥出zero-shot性能。
  • Decoder-Only 架构能更高效地利用无标注数据,具备理论和工程优势。

五、大模型的规模意义

5.1 参数规模的含义

如175B、60B、540B等,指模型的参数数量:

  • B:Billion(十亿)。
  • 例如,ChatGPT 使用约1750亿参数。

六、大模型的优点和缺点

6.1 大模型的优点

  1. 高效利用无标注数据
    • 通过预训练+微调的方式,减少数据标注成本。
    • 提高模型的泛化能力。
  2. 生成能力强
    • 能够在创意、教育等领域生成新颖有价值的内容(如文本、图像、代码)。
  3. 涌现能力
    • 可以完成符号推理、常识推理等复杂任务。

6.2 大模型的缺点

  1. 资源消耗高
    • 训练成本昂贵。例如,GPT-3 训练消耗约30万美元,产生约284吨二氧化碳。
  2. 数据问题
    • 数据偏见、数据安全性和隐私问题可能导致输出不准确或不道德。
  3. 模型可解释性差
    • 难以理解模型内部的决策逻辑,需要进一步研究和改进。

七、总结

通过本文的内容,对以下问题进行了系统性的总结和梳理:

  1. 主流的开源模型体系:当前大模型主要分为三大类架构——Encoder-Decoder、Causal Decoder、Prefix Decoder,各自具有针对性强的特点和适用场景。例如,Encoder-Decoder更适合文本理解任务,而Causal Decoder在文本生成任务中更为强大。

  2. 不同架构的区别:三种架构的核心差异体现在注意力机制的设计上,Prefix Decoder兼具输入理解和生成能力,Causal Decoder更适用于自回归任务,而Encoder-Decoder则强调输入的全局理解。

  3. 训练目标:语言模型主要基于最大似然估计,而去噪自编码器则通过恢复被扰乱的文本进行训练,二者在应用场景和效率上各有侧重。

  4. 涌现能力的原因:大模型的涌现能力来自于非线性评价指标的影响,以及复杂任务在模型参数规模扩大时逐步解决子任务的能力。

  5. Decoder-Only架构为何流行:由于其zero-shot能力和对无标注数据的高效利用,Decoder-Only架构成为了当前大模型的主流选择。

  6. 参数规模的含义:如175B、60B等数字代表了模型参数量,参数规模越大,模型越可能具备更强的泛化和生成能力。

  7. 优缺点分析:大模型的主要优势包括高效利用无标注数据、强大的生成能力和涌现能力,但也存在资源消耗高、数据安全性差和模型可解释性不足等问题。


http://www.kler.cn/a/472534.html

相关文章:

  • 案例解读 | 香港某多元化综合金融企业基础监控+网管平台建设实践
  • 分享:osgb倾斜数据转cesium-3dtiles 小工具.
  • git撤回提交、删除远端某版本、合并指定版本的更改
  • C++ 入门第23天:Lambda 表达式与标准库算法入门
  • 在macOS上安装MySQL
  • 部署:上传项目代码 配置数据库
  • 20250108-实验+神经网络
  • 2025年01月08日Github流行趋势
  • 你好,2025!JumpServer开启新十年
  • 解决 uniapp 开发中的相机相册权限申请同步告知目的问题(兼容 Android 13)| 华为应用商店上架解决方案
  • 【C语言】_冒泡排序及其优化思路
  • 用Python实现货运分析地图应用
  • 经典多模态模型CLIP - 直观且详尽的解释
  • onLoad 生命周期函数是否执行取决于跳转的方式和小程序的页面栈管理机制
  • 移动支付安全:五大威胁及防护策略
  • spark functions函数合集(无示例)
  • dockerfile 中 #(nop)
  • 物联网协议:比较MQTT、CoAP和HTTP以实现高效设备通信
  • 【Leetcode 热题 100】33. 搜索旋转排序数组
  • vulnhub靶场-Deathnote(至获取shell)
  • Linux下文件重定向
  • 【OJ刷题】同向双指针问题
  • CSS语言的编程范式
  • 变压器的啸叫、气隙、中心抽头
  • 表格、列表和表单标签
  • JAVA开发学习Day8