当前位置: 首页 > article >正文

联邦大模型Federated Large Language Model

联邦大模型Federated Large Language Model

  • 联邦大模型Federated Large Language Model
    • 隐私保护计算的三种主要方法
    • 大模型(LLM)训练包含三个阶段
    • 联邦大模型(Federated LLM)包括三个组件
      • (1)联邦LLM预训练(Federated LLM Pre-training)
      • (2)联邦LLM微调(Federated LLM Fine-tuning)
      • (3)联邦LLM提示工程(Federated LLM Prompt Engineering)
    • 参考文献

联邦大模型Federated Large Language Model

摘要:大规模语言模型(LLM)受到了广泛的关注,并应用在各个领域,但在场景发展中仍面临挑战。这些挑战源于公共领域数据稀缺以及在私有领域数据的隐私保护。为了解决这些问题,提出了联邦大规模语言模型(Federated LLM)的概念,共包括三部分,即联邦LLM预训练(Federated LLM pre-training)、联邦LLM微调(Federated LLM fine-tuning)和联邦LLM提示工程(Federated LLM prompt engineering)。针对每个组成部分,我们讨论了它相对于传统LLM训练方法的优势,并提出了具体的工程策略以供实施。此外,我们探讨了联邦学习与大规模语言模型整合所引入的新挑战。我们分析了现有解决方案,并在联邦LLM的背景下确定了这些解决方案可能面临的潜在障碍。

隐私保护计算的三种主要方法

(1)基于密码学的方法:主要关注多方安全计算(MPC)。
(2)机密计算:利用可信执行环境(TEE)。
(3)联邦学习:跨机构数据协作。

大模型(LLM)训练包含三个阶段

预训练(pre-training)、自


http://www.kler.cn/a/309279.html

相关文章:

  • C语言第九周课——经典算法
  • 2-UML概念模型测试
  • HTML之列表
  • 移门缓冲支架的作用与优势
  • Lodash的常用方法整理
  • MarsCode算法题之二叉树供暖问题
  • OA项目之左侧菜单动态选项卡
  • 开发小程序
  • 微服务_入门2
  • 【重学 MySQL】二十五、等值连接vs非等值连接、自连接vs非自连接
  • Java中的OOM与SOF:详解内存溢出与栈溢出
  • 事务的四大特性
  • Day28_0.1基础学习MATLAB学习小技巧总结(28)——参数估计函数
  • 经典sql题(六)查找用户每月累积访问次数
  • Artcam中文版安装包+教程网盘资源下载
  • C语言深入理解指针(二)
  • linux-虚拟化与容器化-容器化
  • gitlab/极狐-离线包下载地址
  • 学习记录:js算法(三十三):LRU 缓存
  • 音频左右声道数据传输_2024年9月6日
  • sqli-labs靶场自动化利用工具——第2关
  • C++系列-STL中find相关的算法
  • 联合仿真(FMI,FMU)资料收集
  • 【mysql】逻辑运算符
  • QT实现TCP协议
  • 『功能项目』第二职业法师的平A【57】