如何在国内下载llama模型
由于项目需求要下载llama模型,本来觉得这是个很简单的事情,直接去huggingface上下载就行,但是没想到遇到了重重问题,于是写下这篇博客记录一下,希望对别人也有帮助!
刚开始搜到的教程是官方给出的,先去https://llama.meta.com/llama-downloads/申请一个URL,再下载GitHub的脚本进行下载,但是我实操之后总是在下载过程中返回403forbidden,所以感觉这条路行不通,所以只能试一下通过huggingface能不能下载。
下载hf模型的几种方法
这里总结的很全面,可参考:链接。还有这里没提到的就是通过命令行中的huggingface-cli download命令,下面会详细介绍使用。
但是国内由于防火墙的原因,不能直接访问huggingface网站,所以一般都用https://hf-mirror.com/,和从hf下载的方法一样,唯一的区别就是在下载之前设置一下,比如Linux就是export HF_ENDPOINT=https://hf-mirror.com
。
然后运行如下命令:
huggingface-cli download --resume-download meta-llama/Llama-2-7b-chat-hf --local-dir Llama-2-7b-chat-hf/ --local-dir-use-symlinks False --resume-download
--local-dir
改成自己的本地路径,meta-llama/Llama-2-7b-chat-hf
也可以换成其他想要下载的模型id
到这里还是不行,因为llama模型需要申请才能使用,也就是在hf上面要申请,点击这里的Expand to review,就会有一个表单,要填写姓名,地区之类的,地区不要选China,我是选了US,因为我的VPN挂了US的,10分钟左右就通过了。
通过之后就是这样的
然后再点右上角的头像图标,点击setting,进入这个页面,再点击access tokens,
没有token的话就新建一个token(记住复制完之后要保存在某个地方,叉掉那个页面就看不到了!)然后运行如下命令:
huggingface-cli download --resume-download meta-llama/Llama-2-7b-chat-hf --local-dir Llama-2-7b-chat-hf/ --local-dir-use-symlinks False --resume-download --token xxx
终于开始下载了!