当前位置: 首页 > article >正文

如何在国内下载llama模型

由于项目需求要下载llama模型,本来觉得这是个很简单的事情,直接去huggingface上下载就行,但是没想到遇到了重重问题,于是写下这篇博客记录一下,希望对别人也有帮助!

刚开始搜到的教程是官方给出的,先去https://llama.meta.com/llama-downloads/申请一个URL,再下载GitHub的脚本进行下载,但是我实操之后总是在下载过程中返回403forbidden,所以感觉这条路行不通,所以只能试一下通过huggingface能不能下载。
在这里插入图片描述

在这里插入图片描述

下载hf模型的几种方法

这里总结的很全面,可参考:链接。还有这里没提到的就是通过命令行中的huggingface-cli download命令,下面会详细介绍使用。

但是国内由于防火墙的原因,不能直接访问huggingface网站,所以一般都用https://hf-mirror.com/,和从hf下载的方法一样,唯一的区别就是在下载之前设置一下,比如Linux就是export HF_ENDPOINT=https://hf-mirror.com

然后运行如下命令:

huggingface-cli download --resume-download meta-llama/Llama-2-7b-chat-hf --local-dir Llama-2-7b-chat-hf/ --local-dir-use-symlinks False --resume-download 

--local-dir改成自己的本地路径,meta-llama/Llama-2-7b-chat-hf也可以换成其他想要下载的模型id

到这里还是不行,因为llama模型需要申请才能使用,也就是在hf上面要申请,点击这里的Expand to review,就会有一个表单,要填写姓名,地区之类的,地区不要选China,我是选了US,因为我的VPN挂了US的,10分钟左右就通过了。
在这里插入图片描述
通过之后就是这样的
在这里插入图片描述
然后再点右上角的头像图标,点击setting,进入这个页面,再点击access tokens,
在这里插入图片描述
没有token的话就新建一个token(记住复制完之后要保存在某个地方,叉掉那个页面就看不到了!)然后运行如下命令:

huggingface-cli download --resume-download meta-llama/Llama-2-7b-chat-hf --local-dir Llama-2-7b-chat-hf/ --local-dir-use-symlinks False --resume-download --token xxx

终于开始下载了!
在这里插入图片描述


http://www.kler.cn/a/290332.html

相关文章:

  • Cesium加载大量点数据卡顿处理办法
  • mysql 更改 字段长度
  • uni-app表单⑪
  • HarmonyOS Next 实战卡片开发 02
  • 解决MySQL中整型字段条件判断禁用不生效的问题
  • AI大模型:重塑软件开发流程的优势、挑战及应对策略
  • Go入门:gin框架极速搭建图书管理系统
  • ubuntu24安装cuda和cudnn
  • 图像缩放操作
  • go-gin响应被覆盖为400,即使正常返回
  • 向对象八股文(长期跟新_整理收集_排版未优化_day04_20个)
  • IEC61968标准是什么?
  • 《Java面试题集中营》- Redis
  • OceanBase block_file与log过大 的问题
  • 污点、容忍和数据卷
  • 将x减到零的最小操作数问题
  • 应用层(Web与HTTP)
  • 什么是CAPTCHA?工作原理详解与应对方案
  • git 常用基础命令
  • 【MeterSphere】vnc连接不上selenium-chrome容器
  • 编译原理项目——C++实现C语言编译器输出为8086级汇编(代码/报告材料)
  • vue的侦听器、表单输入绑定、模版引用
  • Redis过期键监听
  • 使用Java实现LRU缓存和LFU缓存
  • Oracle 19C 数据操纵语言DML
  • ES6中try-catch