小白怎样部署和使用本地大模型DeepSeek ?
1 安装Ollama
(1) 下载Ollama
从https://ollama.com/download 下载, 根据你的系统下载对应的版本,支持Win, Mac ,Linux:
如果下载不了,右键复制链接地址,贴到迅雷,指定可以下载下来。
(2) 安装Ollama
傻瓜式的安装,连接下一步下一步
(3) 测试安装是否成功, 在命令行(开始菜单->运行->cmd)下运行:
ollama -v
有版本显示表示安装成功
2 安装DeepSeek大模型
与其他的模型安装方法一样 ,在Ollama->Model搜DeepSeek,或直接打开:https://www.ollama.com/search?q=deepseek
选择合适的大模型安装, 根据你的硬件配置特别是显卡GPU, 我用RTX3070,运行14B没有问题
等待运行完成,模型越大下载时间越久。
如果下载出错Ctrl+C暂停, 相同的命令重新执行一下就好
3 对话大模型/ 聊天
(1) CMD下聊天
必要介绍几个命令:
Ollama list #显示所有安装的模型 Ollama olama 大小写都可以
Ollama run deepseek-v2:latest #运行deepseek-v2
Ollama run qwen2:7b #运行qwen2
ollama rm deepseek-r1 #删除模型
(2) 其他工具上聊天
工具很多, 常用的有 ChatBox, OpenWebUI, LobeChat
下面以ChatBox为例,先配置与Ollama和模型的关联
然后就可以调用DeepSeek与它对话了
交流q:
qq:316853809
原文地址:https://blog.csdn.net/qq_28171389/article/details/145414250
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.kler.cn/a/528647.html 如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.kler.cn/a/528647.html 如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!