当前位置: 首页 > article >正文

书生·浦语大模型全链路开源体系-第6关 OpenCompass 评测

文章目录

  • 书生·浦语大模型全链路开源体系-第6关
    • 相关资源
    • OpenCompass 评测
    • 评测 API 模型

书生·浦语大模型全链路开源体系-第6关

为了推动大模型在更多行业落地应用,让开发人员更高效地学习大模型的开发与应用,上海人工智能实验室重磅推出书生·浦语大模型实战营,为开发人员提供大模型学习和开发实践的平台。
本文是书生·浦语大模型全链路开源体系-开源开放体系课程的笔记。

相关资源

  • InternLM项目地址

https://github.com/InternLM/InternLM

  • InternLM2技术报告

https://arxiv.org/pdf/2403.17297.pdf

  • 书生·万卷 数据

https://opendatalab.org.cn/

  • 课程链接

https://space.bilibili.com/1293512903/channel/collectiondetail?sid=4017857

OpenCompass 评测

本文聚焦于大语言模型的评测。

OpenCompass 提供了 API 模式评测本地直接评测两种方式。其中 API 模式评测针对那些以 API 服务形式部署的模型,而本地直接评测则面向那些可以获取到模型权重文件的情况。

我们首先创建用于评测 conda 环境:

conda create -n internlm python=3.10

cd InternLM
git clone -b 0.3.3 https://github.com/open-compass/opencompass
cd opencompass

conda activate internlm
pip install -e .
pip install -r requirements.txt
pip install huggingface_hub==0.25.2
pip install importlib-metadata

在这里插入图片描述

在这里插入图片描述

更多使用说明,请参考 OpenCompass 官方文档。

评测 API 模型

如果想要评测通过 API 访问的大语言模型,整个过程其实很简单。首先需要获取模型的 API 密钥(API Key)和接口地址。以 OpenAI 的 GPT 模型为例,只需要在 OpenAI 官网申请一个 API Key,然后在评测配置文件中设置好这个密钥和相应的模型参数就可以开始评测了。评测过程中,评测框架会自动向模型服务发送测试用例,获取模型的回复并进行打分分析。整个过程你不需要准备任何模型文件,也不用担心本地计算资源是否足够,只要确保网络连接正常即可。

我们这里以评测 internlm 模型为例,介绍如何评测 API 模型。

  1. 打开网站浦语官方地址 https://internlm.intern-ai.org.cn/api/document 获得 api key 和 api 服务地址 (也可以从第三方平台 硅基流动 获取), 在终端中运行:
export INTERNLM_TOKEN=xxxxxxxxxxxxxxxxxxxxxxx # 填入你申请的 API Key
  1. 配置模型: 在终端中运行touch opencompass/configs/models/openai/puyu_api.py, 然后打开文件, 贴入以下代码:
import os
from opencompass.models import OpenAISDK


internlm_url = 'https://internlm-chat.intern-ai.org.cn/puyu/api/v1/' # 你前面获得的 api 服务地址
internlm_api_key = os.getenv('INTERNLM_TOKEN')

models = [
    dict(
        # abbr='internlm2.5-latest',
        type=OpenAISDK,
        path='internlm2.5-latest', # 请求服务时的 model name
        # 换成自己申请的APIkey
        key=internlm_api_key, # API key
        openai_api_base=internlm_url, # 服务地址
        rpm_verbose=True, # 是否打印请求速率
        query_per_second=0.16, # 服务请求速率
        max_out_len=1024, # 最大输出长度
        max_seq_len=4096, # 最大输入长度
        temperature=0.01, # 生成温度
        batch_size=1, # 批处理大小
        retry=3, # 重试次数
    )
]

在这里插入图片描述

  1. 配置数据集: 在终端中运行touch opencompass/configs/datasets/demo/demo_cmmlu_chat_gen.py, 然后打开文件, 贴入以下代码:
from mmengine import read_base

with read_base():
    from ..cmmlu.cmmlu_gen_c13365 import cmmlu_datasets


# 每个数据集只取前2个样本进行评测
for d in cmmlu_datasets:
    d['abbr'] = 'demo_' + d['abbr']
    d['reader_cfg']['test_range'] = '[0:1]' # 这里每个数据集只取1个样本, 方便快速评测.

在这里插入图片描述

这样我们使用了 CMMLU Benchmark 的每个子数据集的 1 个样本进行评测.

完成配置后, 在终端中运行: python run.py --models puyu_api.py --datasets demo_cmmlu_chat_gen.py --debug.

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

预计运行30分钟后, 得到结果:

在这里插入图片描述


http://www.kler.cn/a/447370.html

相关文章:

  • UE5 移植Editor或Developer模块到Runtime
  • 【C#】Ctrl+ 组合键的使用
  • 企业数字化转型和人工智能(AI)之间的关系
  • Vue+element 回车查询页面刷新
  • 二叉搜索树Ⅲ【东北大学oj数据结构8-3】C++
  • 现代控制理论——自由度
  • 苹果手机怎么清理空间:拯救你的拥挤手机
  • MyBatis主键自增回填功能源码分析
  • Redis List操作
  • Docker容器命令
  • clickhouse-副本和分片
  • StarRocks:存算一体模式部署
  • maui开发成生安卓apk,运行提示该应用与此设备的CPU不兼容
  • Spring Boot + Dubbo 的整合 ,仅需六步
  • Redis 初相识:开启缓存世界大门
  • 四川XX信息技术职业学院教案
  • react概念篇
  • 巧用AI显著提升工作和学习的效率和质量
  • 【heapdump敏感信息提取】JDumpSpider v1.1
  • 电子电气架构 --- 队列刷写场景及刷写上位机浅析
  • BaseCTF_web_week3
  • 71 mysql 中 insert into ... on duplicate key update ... 的实现
  • linux日常常用命令(AI向)
  • Java(二十六)Object类equals与toString
  • 探索 Python 中的控制语句:break、continue 和 else
  • WPS 认证机制