当前位置: 首页 > article >正文

LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略

LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略

导读:2024年9月19日,阿里云Qwen团队发布0.5B、1.5B、3B、7B、14B、32B和72B参数规模的7款开源模型,语料词汇量为18T个tokens(Qwen2系列仅有7T)。Qwen2.5支持高达128K 的上下文长度,并能生成高达8K的文本。支持多种推理框架,例如 transformers、Ollama、llama.cpp、vLLM、SGLang等。支持多种训练框架,例如 Axolotl、Llama-Factory、unsloth、Swift等,方便用户进行微调。
>> 性能表现:显著提升了指令遵循长文本生成(超过8K tokens)、​​​​​​​结构化数据理解(例如表格)以及​​​​​​​结构化输出生成(尤其是JSON)的能力。对各种系统提示的鲁棒性更强,增强了角色扮演的实现和聊天机器人的条件设置。Qwen2.5支持29种语言

  • 在MMLU、BBH、ARC-C、TruthfulQA、Winogrande、HellaSwag等通用任务中表现出色,超越了同类模型。
  • 数学任务(GPQA、Theoremqa、MATH、GSM8K)中表现突出,尤其是在MATH中,Qwen2.5-72B-Instruct得分从Qwen2-7B/72B-Instruct的52.9/69.0上升到了75.5/83.1。
  • 代码任务(HumanEval、HumanEval+、MBPP、MBPP+、MultiPL-E)中表现优异,尤其是在LiveCodeBench中,Qwen2.5-72B-Instruct得分达到了55.5,优于Qwen2-72B-Instruct的32.2。
  • 多语言任务(Multi-Exam、Multi-Understanding、Multi-Mathematics、Multi-Translation)中表现出色,尤其是在Multi-Understanding中,Qwen2.5-72B得分达到了89.6,展现出强大的多语言理解能力。
  • 更符合人类偏好:Qwen2.5生成的内容更加贴近人类的偏好,在Arena-Hard和MT-Bench等评估指标上都有显著提升。

>> 数据构成:Qwen2.5在最新的超大规模数据集上进行预训练,预训练数据集规模从 7T tokens 扩展到了 18T tokens。

>> 数据预处理流程及其策略:经过大规模数据集的预训练,数据预处理策略包括批量推理、流式推理等。
>> 模型结构:Qwen2.5是密集型、仅解码器结构,提供基础版和指令版。Qwen2.5系列模型均为decoder-only的稠密模型。

>> 优化策略:提供SFT(监督微调)和RLHF(人类反馈强化学习)的训练指导。支持量化实践(如GPTQ、AWQ)以生成高质量的量化文件。提到了Qwen2.5-Coder、Qwen2-math等技术,暗示了模型在代码生成和数学推理能力上的提升。

目录

相关文章

LLMs之Qwen2:Qwen2的简介、安装和使用方法、案例应用之详细攻略

MLM之Qwen:Qwen2-VL的简介、安装和使用方法、案例应用之详细攻略

LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略

Qwen2.5的简介

0、新闻

1、项目内容

2、性能

Qwen2.5的安装和使用方法

1、安装

2、使用方法

T1、Hugging Face Transformers

T2、ModelScope

3、推理

3.1、本地运行

Ollama

llama.cpp

MLX-LM

LMStudio

OpenVINO

3.2、Web UI

文本生成 Web 用户界面

llamafile

4、部署

vLLM

SGLang

5、工具使用

6、微调

Qwen2.5的案例应用


相关文章

LLMs之Qwen2:Qwen2的简介、安装和使用方法、案例应用之详细攻略

LLMs之Qwen2:Qwen2的简介、安装和使用方法、案例应用之详细攻略_qwen2 硬件要求-CSDN博客

MLM之Qwen:Qwen2-VL的简介、安装和使用方法、案例应用之详细攻略

MLM之Qwen:Qwen2-VL的简介、安装和使用方法、案例应用之详细攻略_qwen2-vl 怎么用-CSDN博客

LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略

LLMs之Qwen:Qwen2.5的简介、安装和使用方法、案例应用之详细攻略-CSDN博客

Qwen2.5的简介

2024年9月19日,Qwen2.5 是由阿里云 Qwen 团队开发的大型语言模型系列。自 Qwen2 发布以来的过去三个月里,众多开发者基于 Qwen2 语言模型构建了新的模型,并为我们提供了宝贵的反馈。在这期间,我们专注于创建更加智能和知识丰富的语言模型。今天,我们很兴奋地向大家介绍 Qwen 家族的最新成员:Qwen2.5。

>> 密集、易用、仅解码器的语言模型,提供 0.5B、1.5B、3B、7B、14B、32B 和 72B 多种尺寸,以及基础版和指令版变体。

>> 预训练于我们最新的大规模数据集,包含多达 18T 令牌。

>> 在遵循指令、生成长文本(超过 8K 令牌)、理解结构化数据(如表格)以及生成结构化输出尤其是 JSON 方面有显著改进。

>> 对系统提示的多样性更具韧性,增强了角色扮演实现及聊天机器人的条件设置。

>> 上下文长度支持高达 128K 令牌,并可生成高达 8K 令牌。

>> 支持超过 29 种语言,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

GitHub地址:GitHub - QwenLM/Qwen2.5: Qwen2.5 is the large language model series developed by Qwen team, Alibaba Cloud.

0、新闻

2024年9月19日:我们发布了 Qwen2.5 系列。这次额外增加了 3 种模型尺寸:3B、14B 和 32B,提供更多可能性。请查看我们的博客获取更多信息!

2024年6月6日:我们发布了 Qwen2 系列。请查看我们的博客!

2024年3月28日:我们发布了 Qwen 的首个 MoE 模型:Qwen1.5-MoE-A2.7B!目前仅 HF transformers 和 vLLM 支持该模型。我们很快会增加 llama.cpp、mlx-lm 等的支持。请查看我们的博客获取更多信息!

2024年2月5日:我们发布了 Qwen1.5 系列。

1、项目内容

>> 推理:使用 transformers 进行推理的指南,包括批量推理、流式处理等;

>> 本地运行:在 CPU 和 GPU 上使用 llama.cpp 和 Ollama 等框架本地运行 LLM 的说明;

>> 部署:使用 vLLM、TGI 等框架进行大规模推理的部署演示;

>> 量化:使用 GPTQ、AWQ 量化 LLM 的实践,以及如何制作高质量量化 GGUF 文件的指南;

>> 训练:后训练说明,包括使用 Axolotl、LLaMA-Factory 等框架的 SFT 和 RLHF(待完成)。

>> 框架:与 RAG、Agent 等应用程序框架一起使用的 Qwen 方法。

2、性能

详细的评估结果报告在此 �� 博客中。

对于 GPU 内存需求及相应的吞吐量,请参见这里的结果(将针对 Qwen2.5 更新)。

Qwen2.5的安装和使用方法

1、安装

2、使用方法

T1、Hugging Face Transformers

建议使用最新版本的 transformers(至少 4.37.0)。这里展示了一个代码片段,展示如何使用 transformers 与聊天模型交互:

对于量化模型,我们建议您使用对应的 GPTQ 和 AWQ 版本,即 Qwen2.5-7B-Instruct-GPTQ-Int8 和 Qwen2.5-7B-Instruct-AWQ。

T2、ModelScope

我们强烈建议用户特别是中国大陆的用户使用 ModelScope。snapshot_download 可以帮助您解决下载检查点的问题。

3、推理

3.1、本地运行

Ollama

安装 ollama 后,您可以使用以下命令启动 ollama 服务:

ollama serve

# 使用 ollama 时需要保持此服务运行

要拉取模型检查点并运行模型,请使用 ollama run 命令。您可以通过添加后缀到 qwen2.5 来指定模型大小,例如 :0.5b, :1.5b, :7b, 或 :72b:

您还可以通过其兼容 OpenAI 的 API 访问 ollama 服务。请注意,您需要 (1) 在使用 API 时保持 ollama serve 运行,(2) 在使用此 API 之前执行 ollama run qwen2.5:7b 以确保模型检查点已准备好。

更多详情,请访问 ollama.ai。

llama.cpp

下载我们提供的 GGUF 文件或自己创建,然后可以使用最新版本的 llama.cpp 通过一行命令直接使用它们:

MLX-LM

如果您在 Apple Silicon 上运行,我们也提供了与 mlx-lm 兼容的检查点。在 HuggingFace Hub 上寻找以 MLX 结尾的模型,比如 Qwen2.5-7B-Instruct-MLX。

LMStudio

Qwen2.5 已经被 lmstudio.ai 支持。您可以直接使用 LMStudio 与我们的 GGUF 文件。

OpenVINO

Qwen2.5 已经被 OpenVINO 工具包支持。您可以安装并使用 Intel CPU、集成显卡或独立显卡运行这个聊天机器人示例。

3.2、Web UI

文本生成 Web 用户界面

您可以直接使用 text-generation-webui 创建 Web UI 演示。如果您使用 GGUF,请记得安装支持 Qwen2.5 的最新 llama.cpp wheel。

llamafile

克隆 llamafile,运行源安装,然后按照此处的指南使用 GGUF 文件创建您自己的 llamafile。您能够运行一条命令,比如 ./qwen.llamafile,来创建一个演示。

4、部署

Qwen2.5 得到了多个推理框架的支持。这里我们演示了 vLLM 和 SGLang 的使用。

vLLM

我们建议您使用最新版本的 vLLM 构建兼容 OpenAI 的 API 服务,包括工具使用支持。使用聊天模型启动服务器,例如 Qwen2.5-7B-Instruct:

SGLang

警告

SGLang 当前提供的兼容 OpenAI 的 API 尚不支持工具使用或函数调用。

请从源代码安装 SGLang。类似于 vLLM,您需要启动一个服务器并使用兼容 OpenAI 的 API 服务。首先启动服务器:

5、工具使用

对于工具使用能力,我们建议查看 Qwen-Agent,它为这些 API 提供了一个封装,以支持工具使用或函数调用。也可以使用 Hugging Face transformers、Ollama 和 vLLM 与 Qwen2.5 进行工具使用。请跟随我们的文档中的指南了解如何启用支持。

6、微调

我们建议您使用训练框架,包括 Axolotl、Llama-Factory、unsloth、Swift 等,利用 SFT、DPO、PPO 等方法微调您的模型。

Qwen2.5的案例应用

持续更新中……


http://www.kler.cn/news/316952.html

相关文章:

  • Redisson 总结
  • 二叉树---java---黑马
  • 吴恩达深度学习笔记:卷积神经网络(Foundations of Convolutional Neural Networks)2.1-2.2
  • 【IPV6从入门到起飞】5-5 IPV6+Home Assistant(HACS商店安装)docker版本安装
  • Leetcode3289. 数字小镇中的捣蛋鬼
  • vue中高德地图使用 Marker 标点 - 标点数据快到 1000 时页面卡顿问题解决(已解决 - 多方面原因)+ 海量点功能实现解决
  • 南昌大学-计算机科学与技术专业-预推免-专业课(408)复试面试准备
  • 通信工程学习:什么是MANO管理编排
  • 蓝桥杯嵌入式的学习总结
  • 18 基于51单片机的心率体温监测报警系统(包括程序、仿真、原理图、流程图)
  • helm安装promethues
  • MySQL的缓存策略
  • 数据结构二
  • 影刀RPA实战:网页爬虫之携程酒店数据
  • 文件(打开关闭读写) C语言
  • 面向对象程序设计——mapの简析
  • kettle从入门到精通 第八十七课 ETL之kettle kettle文件上传
  • DevExpress中文教程:如何将WinForms数据网格连接到ASP. NET Core WebAPI服务?
  • 笔记9.18
  • C++速通LeetCode中等第1题-字母异位词分组
  • 在vue中:style 的几种使用方式
  • 【Elasticsearch系列五】Java API
  • Day30_0.1基础学习MATLAB学习小技巧总结(30)——优化工具箱及
  • prime1靶机渗透 (信息收集 内核提权)
  • H5白色大方图形ui设计公司网站HTML模板源码
  • DSP学习00-F28379D学习准备(了解一个工程的构成)
  • python mysql pymysql 数据库操作,常用脚本,个人小工具
  • 通过 LabVIEW 正则表达式读取数值(整数或小数)
  • Java基础尚硅谷85-面向对象特征一:封装性
  • Java中的事件(动作监听-ActionListener)