当前位置: 首页 > article >正文

AMD-OLMo:在 AMD Instinct MI250 GPU 上训练的新一代大型语言模型。

在这里插入图片描述
AMD-OLMo是一系列10亿参数语言模型,由AMD公司在AMD Instinct MI250 GPU上进行训练,AMD Instinct MI250 GPU是一个功能强大的图形处理器集群,它利用了OLMo这一公司开发的尖端语言模型。AMD 创建 OLMo 是为了突出其 Instinct GPU 在运行 “具有数万亿标记的大规模多节点 LM 训练工作 ”方面的能力,与其他完全开放的类似规模的 LM 相比,OLMo 可实现更高的推理和指令跟踪性能。

在这里插入图片描述

OLMo 是最先进的开源软件,但其参数数量少于 AI2(前身为艾伦人工智能研究所)开发的同类软件。AMD 的版本有 10 亿个参数,而 AI2 的 OLMo 有 70 亿个参数。尽管在规模上存在差异,但 AMD 的 OLMo 已经在 1.3 万亿个令牌的海量数据集上进行了训练,这些数据集在 16 个节点上进行了预训练,每个节点都配备了四个 AMD Instinct MI250 GPU。通过这种训练,AMD-OLMo 开发出了令人印象深刻的语言能力,包括预测句子中下一个单词的能力,使其适用于聊天机器人等应用。

AMD 的 OLMo 已与其他公开的型号进行了比较,其性能令人印象深刻。例如,它已被证明优于其他指令调整基线。该公司认为,OLMo 的发布将有助于开发人员复制其工作,并在 “顶端 ”进一步创新。此外,AMD-OLMo 还有望推广该公司的处理器,展示其强大功能,并在与 Nvidia 和英特尔等竞争对手的竞争中提升其声誉。

OLMo 的发布是 AMD 努力让人工智能(AI)更接近边缘设备的一部分。近年来,该公司已经推出了多项人工智能创新技术,包括发布注入人工智能的 Ryzen、Instinct 和 Epyc 芯片。AMD 的 OLMo 模型可在 Hugging Face 上获得,开发人员可以访问该模型的数据、权重、训练配方和代码,以重现其工作并在此基础上进行开发。

预训练结果

Standard BenchmarksTinyLLaMA-v1.1 (1.1B)MobiLLaMA-1B (1.2B)OLMo-1B (1.2B)OpenELM-1_1B (1.1B)OLMo-1B-0724-hf (1.2B)AMD-OLMo-1B (1.2B)
arc_easy55.4756.6557.2855.4356.6563.64
arc_challenge32.6832.0031.0632.3432.3433.70
hellaswag61.4761.8062.9264.8166.1263.61
piqa73.5675.3075.1475.5775.0875.57
boolq55.9960.8361.7463.5866.1860.58
sciq89.3088.2087.0090.6092.7093.20
winogrande59.4359.2759.9861.7261.7261.64
openbookqa36.8035.4036.2036.2035.6035.80
mmlu (0-shot)25.0224.8124.2325.2625.4524.88
gsm8k (8-shot)1.820.002.502.818.952.88
bbh (3-shot)25.630.0025.6316.7721.6720.95
Average47.0244.9347.6147.7349.3148.77

指令调整结果

Standard BenchmarksTinyLlama-1.1B-Chat-v1.0 (1.1B)MobiLlama-1B-Chat (1.2B)OpenELM-1_1B-Instruct (1.1B)AMD-OLMo-1B-SFT (1.2B)AMD-OLMo-1B-SFT-DPO (1.2B)
arc_easy54.4257.4152.4463.6864.31
arc_challenge32.8534.5637.8037.1237.37
hellaswag60.4062.5171.2961.6361.91
piqa74.4875.7375.0374.4374.16
boolq61.0455.6670.2868.5370.24
sciq88.4087.1089.5091.2092.10
winogrande60.5460.7762.1960.2260.62
openbookqa37.2036.8039.2037.4040.20
mmlu24.6125.2525.5429.9730.52
gsm8k (8-shot)2.810.231.8218.2015.77
bbh (3-shot)26.830.0013.4025.1725.45
Average47.6045.0948.9551.6052.06
Chat BenchmarksTinyLlama-1.1B-Chat-v1.0 (1.1B)MobiLlama-1B-Chat (1.2B)OpenELM-1_1B-Instruct (1.1B)AMD-OLMo-1B-SFT (1.2B)AMD-OLMo-1B-SFT-DPO (1.2B)
AlpacaEval 1 (Win Rate)50.8134.9037.7250.1254.22
AlpacaEval 2 (LC Win Rate)1.541.590.493.882.37
MTBench3.382.89-4.354.10
Responsible AI BenchmarksTinyLlama-1.1B-Chat-v1.0 (1.1B)MobiLlama-1B-Chat (1.2B)OpenELM-1_1B-Instruct (1.1B)AMD-OLMo-1B-SFT (1.2B)AMD-OLMo-1B-SFT-DPO (1.2B)
ToxiGen41.7037.2342.3439.0439.68
crows_pairs60.3558.5059.9360.2961.00
TruthfulQA-mc237.9238.4645.8437.4540.06
  • 在为聊天基准评估生成标记时,我们在 AlpacaEval 中使用 max_length=2048,在 MTBench 中使用 max_new_tokens=2048。
  • 上表中的所有数字均来自我们的评估。

这次发布对 AMD 来说是意义重大的一步,因为它不仅彰显了 AMD 硬件在人工智能领域的实力,而且还使 AMD 在快速发展的人工智能芯片市场上与 Nvidia 和英特尔等行业领导者一较高下。通过在 Hugging Face 上提供模型,AMD 鼓励开发人员在其工作基础上进行实验和开发,从而有可能推动语言建模和人工智能应用的进一步发展。

Huggingface:amd/AMD-OLMo

感谢大家花时间阅读我的文章,你们的支持是我不断前进的动力。点赞并关注,获取最新科技动态,不落伍!🤗🤗🤗


http://www.kler.cn/a/388409.html

相关文章:

  • 重构代码之内联临时变量
  • Java 网络编程(一)—— UDP数据报套接字编程
  • 计算机网络易混淆知识点串记
  • 蓝牙BLE开发——iOS 每次写入数据超过200字节报错?
  • 【测试框架篇】单元测试框架pytest(1):环境安装和配置
  • 运行WHTools批量启动游戏房间工具提示要安装.Net Framework3.5解决
  • C#语言在软件开发中的应用与优势
  • 【鸿蒙学习】HarmonyOS应用开发者高级认证 - 认证通过(附题目)
  • Vue 中的定时刷新与自动更新实现
  • Android Framework 框架层主要功能类的基本介绍
  • 「QT」几何数据类 之 QPolygonF 浮点型多边形类
  • 第十六章 TCP 客户端 服务器通信
  • 关于若依500验证码问题的求助
  • WPS Office手机去广高级版
  • PostgreSQL pg-xact(clog)目录文件缺失处理
  • MyBatis5-缓存
  • SpringBoot中使用Thymeleaf模板引擎
  • C# 选择导入文件的路径、导出文件的路径
  • [vulnhub] DarkHole: 1
  • Elasticsearch 实战应用:高效搜索与数据分析
  • 「OC」SDWebimage的学习
  • 万字长文解读深度学习——循环神经网络RNN、LSTM、GRU、Bi-RNN
  • 多线程的创建方式以及及Thread类详解
  • 小菜家教平台(五):基于SpringBoot+Vue打造一站式学习管理系统
  • axios 访问data类型和.net core 后端对应接收
  • Ubuntu和Debian系列的Release默认shell解释器变更