大模型参数大小,占用多少字节,验证环节需要多少算力;“100B Token,支持8K上下文”是什么意思 ;Llama模型;
目录
大模型参数大小,占用多少字节,验证环节需要多少算力
一、主流大模型参数大小及占用字节数
二、验证环节所需算力
“100B Token,支持8K上下文”是什么意思
一、100B Token
二、支持8K上下文
总结
Llama模型
Llama模型版本
参数的含义
Llama3 70B,参数量,普通5千元电脑能本地实现单次推理吗
一、Llama3 70B的参数量
二、普通5千元电脑能否实现单次推理
大模型参数大小,占用多少字节,验证环节需要多少算力
关于主流大模型的参数大小、占用的字节数以及验证环节所需的算力,以下是一些具体的例子和分析:
一、主流大模型参数大小及占用字节数
-
ChatGPT
- 参数规模:约1750亿(即175B)
- 占用字节数(以float32为例):175,000,000,000 × 4字节 = 700,000,000,000字节 =