当前位置: 首页 > article >正文

关于预训练后训练、LLM和视频大模型相关学习记录

Pre-training与Post-training
预训练主要是“模仿”,而后训练则是“创造”
预训练对数据质量的要求不高,而后训练对数据质量的要求较高
预训练:模型通过预测海量互联网文本数据中的下一个 token,学习语言的通用规律,得到基础模型。
后训练:在预训练模型基础上,进行指令微调、偏好微调(RLHF)和强化微调等,使模型具备更符合人类期望的行为。

语言大模型与视频大模型
对于LLM而言,预训练基本到顶,原因之一就是开源模型的性能已经非常接近闭源模型的性能
对于视频模型的预训练而言,仍在发展的初级阶段,目前视频大模型的参数量仍停留在百亿(几十B)的水平
LLM可用的数据已基本耗尽,但是视频大模型可用的数据仍非常多;视频数据相比文本数据太大,导致在现有算力条件下,一方面视频大模型的参数量难以达到LLM的量级,同时训练使用的数据量也不能有则尽用
LLM更偏重于概率,而视频大模型则更需要关注对物理规律的理解

具身智能
难点在于大部分情况属于 extrapolation(外推)情形,即训练数据未覆盖到的场景
与外推对应的是插值(Interpolation),即测试数据在训练数据分布范围内

LLM分为指令模型和推理模型两种

学习原文:https://mp.weixin.qq.com/s?__biz=MzkzNDQxOTU2MQ==&mid=2247496067&idx=1&sn=e8e0a317dea0f9a53f040e455ba7da43&scene=21#wechat_redirect
https://mp.weixin.qq.com/s?__biz=Mzg5NTc0MjgwMw==&mid=2247514014&idx=1&sn=9741f66499dae7ca6eee728828cf6dc1&scene=21#wechat_redirect


http://www.kler.cn/a/538857.html

相关文章:

  • android手机安装deepseek-r1:1.5b
  • 高并发读多写少场景下的高效键查询与顺序统计的方案思路
  • 单例模式几种实现
  • 前沿科技一览未来发展趋势
  • 前端开发架构师Prompt指令的最佳实践
  • 【AIGC】冷启动数据与多阶段训练在 DeepSeek 中的作用
  • 周报1.0
  • 鸿蒙音视频播放器:libwlmedia
  • 如何解决 Linux 文件系统挂载失败的问题
  • vue print 打印
  • 11.递归遍历、迭代遍历、统一迭代、层序遍历
  • Excel大数据量导入导出
  • React 生命周期函数详解
  • antd-react日期组件disabledDate不可选择的日期 (置灰)属性
  • Nginx进阶篇 - nginx多进程架构详解
  • SpringBoot速成(八)登录实战:未登录不能访问 P5-P8
  • Vue 3 + Vite + JS 项目中实现组件全局自动化注册的魔法,极致组件自动化注册方案,开发效率飙升300%。
  • linux 基础知识点之工作队列workqueue
  • (done) openMP学习 (Day9: 优化链表操作)
  • DeepSeek介绍,以及本地部署和API使用
  • 内容中台赋能人工智能技术提升业务创新能力
  • Jenkins 使用教程:从入门到精通
  • 如何使用JLINK连接雅特力MCU
  • Ada语言的云计算
  • LeetCode 力扣热题100 将有序数组转换为二叉搜索树
  • fps动作系统7:武器摇摆