利用Ollama本地部署 DeepSeek
这里写目录标题
- 下载Ollam
- 执行模型RUN
- 整合UI
下载Ollam
点击下载
选择适合自己的系统进行下载即可
执行模型RUN
点击查看models模型
我这里以7b为例
- 在终端执行ollama run deepseek-r1:1.5b
- 第一次下载可能比较慢
- 当界面出现success时候即为安装成功,ollama是直接进入到模型问答场景的可通过
Ctrl + D
退出
- 退出后不代表模型就不跑了,他还是在运行的,可以
lsof -i :11434
查看运行端口 - 也可以通过Postmain或其他Api工具进行调用
整合UI
AnythingLLM、Dify、Open-WebUI 三款比较火的基础层
- AnythingLLM: 更专注于文档知识库与问答场景,自带向量检索管理,可 “多文档整合”,接入 Ollama 后实现本地化问答。
- Dify: 适合对话流管理、插件化扩展、团队协同等复杂需求。只要能在其后台正确配置 Ollama 地址,即可灵活调用。
- Open-WebUI: 走纯粹聊天界面路线,你可以把它当做一个能 “轻松切换模型、马上对话” 的 Web 面板,如果只是想单纯体验 Ollama 的生成效果,Open-WebUI 也许是最方便的。
😁 作者:Teddy (公众号:码尚云软件)
ok!到这里就大功告成,小编(Teddy)在这里先感谢大家的到来。
虽然不是太详细,小编已经很努力,给小编来个一键三连(点赞,关注,收藏),小编会越来越努力。。。