本地部署Deepseek R1
最近Deepseek R1模型也是彻底火出圈了, 但是线上使用经常会受到各种限制,有时候还会连不上,这里我尝试本地部署了Deepseek 的开源R1模型,具体的操作如下:
首先登陆ollama平台,Ollama.ollama平台是一个开源模型的下载运行网站,首先需要在本地下载ollama软件并安装,直接在ollama主页点击下载安装即可。
下载好后,再下载模型。这里选择deepseek R1
后面选择模型参数,考虑我的DRAM带是16GB且显卡是4060,因此我选择的是14b(十亿)参数的大模型。
下载命令是在命令行窗口输入:
ollama run deepseek-r1:14b
然后就会下载好,下载好后直接使用即可,使用命令是
ollama list
ollama run </model name>
使用结果如下: