当前位置: 首页 > article >正文

大模型(LLMs)推理面

1. 为什么大模型推理时显存涨的那么多还一直占着?

        1. 首先,序列太长了,有很多Q/K/V;

         2. 其次,因为是逐个预测next token,每次要缓存K/V加速解码。

2. 大模型在gpu和cpu上推理速度如何?

        7B量级下:

        • cpu推理速度约10token/s;

        • 单卡A6000和8核AMD的推理速度通常为 10:1。

3. 推理速度上,int8和fp16比起来怎么样?

        根据实践经验,int8模式一般推理会明显变慢(huggingface的实现)

4. 大模型有推理能力吗?

        大模型有推理能力。有下面2个方面的体现:

        ChatGPT拥有in-context correction的能力,即如果说错了,给出矫正,ChatGPT能“听懂”错在哪儿了,并向正确 的方向修正。in-context correction要比in-context learning难了太多,描述越详细清楚,ChatGPT回答得越好。 要知道,越详细的描述,在预训练的文本里越难匹配到的。

        在询问ChatGPT互联网上并不存在内容的时候,能给出较好答案(如用ChatGPT学建模);ChatGPT能通过信 息猜你心中的想法;你可以制定一个全新的游戏规则让ChatGPT和你玩,ChatGPT可以理解。

5. 大模型生成时的参数怎么设置?

  生成模型预测调参建议:

         建议去调整下 top_p, num_beams, repetition_renalty, temperature, do_sample=True;

        数据生成有重复,调高repetition_renalty;

         生成任务表达单一的,样本也不多的,可适当调低 temperature,生成的样子跟训练集的比较像;如果要复现训 练集的效果,temperature=0.01即可。

        以上是经验参数,具体调参根据任务而定,不是固定的

• 参数解释:

top_p=0.9,
#Moderately increase the probability threshold of nucleus sampling to increase the
quantity of candidate tokens and increase generation diversity.
temperature=1.0,
#The previous low temperature parameter could lead to a severe polarization in the
probability distribution of generated words, which degenerates the generation
strategy into greedy decoding.
do_sample=True,
#do_sample parameter is set to False by default. After setting to True, the

http://www.kler.cn/a/400058.html

相关文章:

  • 【Android】Proxyman 抓 HTTP 数据包
  • RK3568平台开发系列讲解(platform虚拟总线驱动篇)实验:点亮一个LED
  • std::sort的底层原理(混合排序算法)
  • Windows环境GeoServer打包Docker极速入门
  • 【AlphaFold3】开源本地的安装及使用
  • 学习日记_20241117_聚类方法(高斯混合模型)
  • 微信小程序点击跳转打电话功能
  • 实操案例|TinyVue树表+动态行合并
  • 【验证码逆向专栏】vaptcha 手势验证码逆向分析
  • StructuredStreamingKafka中的实时ETL案例及常见问题
  • 三维测量与建模笔记 - 点特征提取 - 4.3 Harris特征点
  • React Native 全栈开发实战班 - 网络与数据之数据缓存策略SWR、Query
  • 基于Cnn神经网络虫害预测
  • 基于Spring Boot+Unipp的博物馆预约小程序(协同过滤算法、二维码识别)【原创】
  • Visual Studio 圈复杂度评估
  • 一体化运维监控管理平台:产品架构与功能解析
  • 量化交易系统开发-实时行情自动化交易-3.4.3.2.期货交易数据
  • 梯度提升树(Gradient Boosting Trees)详解
  • Docker部署Kafka SASL_SSL认证,并集成到Spring Boot
  • springMVC 全局异常统一处理
  • 如何把本地docker 镜像下载用到centos系统中呢?
  • C++ cosnt关键字
  • 基于RK3588的移动充电机器人应用解决方案
  • Django Q对象和F表达式
  • 【Apache Paimon】-- 2 -- 核心特性 (0.9.0)
  • 安全,服务器证书和SSL连接