当前位置: 首页 > article >正文

8K样本在DeepSeek-R1-7B模型上的复现效果

7B Model and 8K Examples: Emerging Reasoning with Reinforcement Learning is Both Effective and Effic (notion.site)

港科大助理教授何俊贤的团队以Qwen2.5-Math-7B(基础模型)为起点,直接对其进行强化学习。整个过程中,没有进行监督微调(SFT),也没有使用奖励模型。最终,模型在AIME基准上实现了33.3%的准确率,在AMC上为62.5%,在MATH上为77.2%。这一表现超越了Qwen2.5-Math-7B-Instruct,且可以和使用超过50倍数据量和更复杂组件的PRIME和rStar-MATH相媲美。结果说明,模型在复杂的数学推理上取得了十分优秀的结果。

Qwen2.5- 7 B-SimpleRL-Zero是直接从基础模型进行简单的RL训练,仅使用8K MATH示例。与基础模型相比,它平均获得了近20个绝对点的收益。与具有相同8K数据SFT的Qwen2.5-Math-7 B-Base相比,RL具有更好的泛化能力,绝对高出22%。此外,Qwen2.5- 7 B-SimpleRL-Zero的平均性能优于Qwen-2.5-Math-7 B-Instruct,并且与最近发布的Eurus-2- 7 B-PRIME和rStar-Math-7 B大致相当,后者也基于Qwen-2.5-Math-7 B。

 其中,Qwen2.5-7B-SimpleRL-Zero是在Qwen2.5-Math-7B基础模型上仅使用纯PPO方法训练的,仅采用了MATH数据集中的8K样本。Qwen2.5-7B-SimpleRL则首先通过Long CoT监督微调(SFT)作为冷启动,然后再进行强化学习。在这两种方法中,团队都只使用了相同的8K MATH样本。

大概在第40步的时候,模型开始生成自反射模式,即DeepSeek-R1论文中的“aha moment”。模型的响应中,出现了自我反思。

 

在验证中,模型还显现了较长的CoT推理能力和自我反思能力。

 

有趣的是,尽管研究者先进行了long CoT SFT,但在强化学习初期仍然观察到输出长度减少的现象。他们推测,这可能是因为从QwQ提取的推理模式不适合小型策略模型,或超出了其能力范围。因此,模型选择放弃这种模式,转而自主发展新的长链式推理方式。

 


http://www.kler.cn/a/543113.html

相关文章:

  • 机器学习分类整理【表格版】分类角度、名称、概念、常见算法、典型案例
  • 在实体机和wsl2中安装docker、使用GPU
  • C++基础学习记录—this指针
  • Visual Studio 进行单元测试【入门】
  • 【Vue中BUG解决】npm error path git
  • NineData云原生智能数据管理平台新功能发布|2025年1月版
  • [隧道代理] 隧道代理 — 端口转发 - SSH 端口转发
  • deepseek + kimi 高效生成PPT
  • 如何在个人电脑本地化部署Deepseek-R1大模型
  • 【Rust中级教程】1.4. 内存 Pt.2:栈内存、栈帧(stack frame)、栈指针(stack pointer)
  • 【动态规划篇】:动态规划解决路径难题--思路,技巧与实例
  • 国产化FMC接口通用计算平台设计原理图:2367-基于FMQL45T900 FMC接口通用计算平台
  • .NET Web-静态文件访问目录浏览
  • Django中apps.py作用
  • Day58_20250206_图论part3_101.孤岛的总面积|102.沉没孤岛|103.水流问题|104.建造最大岛屿
  • 51c大模型~合集112
  • 集合家族详情
  • ASUS/华硕飞行堡垒9 FX506H FX706H 原厂Win10系统 工厂文件 带ASUS Recovery恢复
  • 基于 ollama 在linux 私有化部署DeepSeek-R1以及使用RESTful API的方式使用模型
  • vue2 多页面pdf预览
  • 2025年02月12日Github流行趋势
  • maven项目如何部署构建输出(如 JAR、WAR 文件等)到远程仓库中
  • 基于 Python(Flask)、JavaScript、HTML 和 CSS 实现前后端交互的详细开发过程
  • 集成学习(一):从理论到实战(附代码)
  • vue 项目使用vue-watermark组件给页面添加满屏水印
  • 计算机组成原理——中央处理器(九)