ubuntu 部署deepseek
更新 apt update
升级 apt upgrade
格式化硬盘 mkfs.ext4 /dev/sdb
安装nginx
查看端口
一、安装Ollama
Ollama是一个开源的大型语言模型(LLM)推理服务器,为用户提供了灵活、安全和高性能的语言模型推理解决方案。
ollama/docs/linux.md at main · ollama/ollama · GitHub
curl -fsSL https://ollama.ai/install.sh | sh
感觉有点点慢
Releases · ollama/ollama · GitHub
先下载吧
下载解压
①启动Ollama
②下载模型
②run模型
ollama run deepseek-r1:1.7b
③访问
通过访问 http://localhost:11434 可看到Ollama is running信息。
看个人喜欢,我改为8080端口
http://10.20.16.14:8080/
问题:本地可以访问,其它主机不可以访问
原因《监听0.0.0.0,把127.0.01:11434改为0.0.0.0:8080》
访问速度
这个界面体验部友好,我在windows上面测试下
4 可视化
部署chatbox可以实现UI界面的本地大模型交互。
可视化工具Chatbox官网:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载
服务器配置
配置
使用