大模型的模型文件有多大?
大模型的模型文件大小主要取决于参数量和量化方案,具体表现如下:
1. 参数量与基础存储需求
- 全精度(FP32):每个参数占4字节,1B参数的模型约需4GB存储空间。例如,70B参数的模型理论大小约为280GB,但实际文件可能更大(如Llama2-70B的FP16版本达141GB)。
- 半精度(FP16/BF16):每个参数占2字节,文件大小为参数量的2倍。例如,7B参数的FP16模型约14.1GB,与理论值(7B×2B=14GB)基本一致。
- 量化影响:
- Int8量化:每个参数占1字节,文件大小约为参数量的1倍。例如,7B模型的Int8版本约7.54GB。
- Int4量化:每个参数占0.5字节,文件大小约为参数量的0.5倍。例如,14B模型的Int4版本仅8.37GB,显存占用约10.5GB。
- 不同参数规模的实际案例
- 小模型(1.5B~14B):适合本地部署,如Int4量化的14B模型文件约8.37GB,显存占用10.5GB,可在16GB显存的显卡上运行。
- 中大型模型(32B~70B):例如Int4量化的70B模型文件约39.6GB,需48GB显存支持。
- 千亿级模型(如671B):全精度版本文件达1.3TB,需服务器集群运行。