当前位置: 首页 > article >正文

【原创】Ubuntu 24搭建Ollama+ DeepSeek局域网服务器

安装Ubuntu 服务器

通过ubuntu官网下载ubuntu 24服务器版本
刻录光盘(也可以使用U盘)
用光盘启动PC机器(必须是带显卡的PC机,包括集成Intel显卡的也行,纯CPU计算的服务器基本上不能使用)
最小化安装Ubuntu Server,使用自动分区

安装Ollama

可以到ollama官网查看信息
https://ollama.com
下载Linux版本
https://ollama.com/download/linux

切换到 root用户,执行如下指令

curl -fsSL https://ollama.com/install.sh | sh

如果执行失败,则多试几次即可。
执行完毕后,基本配置好了。

修改服务

vi /etc/systemd/system/ollama.service

参考《大模型部署框架 Ollama:环境变量设置与常用 CLI 命令》
https://zhuanlan.zhihu.com/p/23824503091

添加如下内容:
//允许其它计算机访问,端口8080
Environment=“OLLAMA_HOST=0.0.0.0:8080”
//允许跨域访问
Environment=“OLLAMA_ORIGINS=*”
//模型存放的位置
Environment=“OLLAMA_MODELS=/llm_models”
//模型在内存中存放的时间
Environment=“OLLAMA_KEEP_ALIVE=10”

完成后的内容如下:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0:8080"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_MODELS=/llm_models"
Environment="OLLAMA_KEEP_ALIVE=10"


[Install]
WantedBy=default.target

启动服务

systemctl daemon-reload
systemctl restart ollama
systemctl enable ollama

开放服务器8080端口,用于ollama提供服务(参考上面OLLAMA_HOST参数)
在这里插入图片描述

下载模型

模型务必通过ollama服务器的web Api来下载

首先创建一个目录保存模型,与/etc/systemd/system/ollama.service中的配置OLLAMA_MODELS保持一致

mkdir /llm_models

将所有者设置为ollama,否则ollama账户权限写该目录

chown ollama /llm_models

查找模型
https://ollama.com/search
当前排名第一的就是deepseek,
在这里插入图片描述
点击deepseek-r1
在这里插入图片描述
默认情况下,使用7b(70亿参数)模型,在普通的P C机上可以运行,这里我选8B的
在这里插入图片描述

记录复制下来的内容,这个是本地命令窗口运行的指令,我们暂时不用它,这里只是获取模型名称,接下来用。

ollama run deepseek-r1:8b

进行请求,model参数重,填入上面的模型名称。

curl -X POST http://192.168.250.115:8080/api/pull -d '{"model": "deepseek-r1:8b"}'

接下来一堆输出,直到出现{“status”:“success”}后,模型下载完毕。

e7e630e5df98602f1c0894ed0cacd11eeb","total":487,"completed":487}
{"status":"pulling 0cb05c6e4e02","digest":"sha256:0cb05c6e4e02614fa7f4c5d9ddcd5ae7e630e5df98602f1c0894ed0cacd11eeb","total":487,"completed":487}
{"status":"pulling 0cb05c6e4e02","digest":"sha256:0cb05c6e4e02614fa7f4c5d9ddcd5ae7e630e5df98602f1c0894ed0cacd11eeb","total":487,"completed":487}
{"status":"verifying sha256 digest"}
{"status":"writing manifest"}
{"status":"success"}

测试

下载工具 Cherry Studio
https://cherry-ai.com/

按照如下步骤配置
在这里插入图片描述
在这里插入图片描述
检查
在API密钥处,随便填点啥就行,然后点击检查
在这里插入图片描述
选择刚才添加的模型名称
在这里插入图片描述
测试成功
在这里插入图片描述

开始对话
在这里插入图片描述

观察回答
在这里插入图片描述

如果回复信息太慢的话,可以考虑换用参数比较小的模型。


http://www.kler.cn/a/566642.html

相关文章:

  • 不同Embedding模型与大语言模型(LLM)的交互主要通过语义向量传递实现
  • 对泰坦尼克号沉没事件幸存者数据分析和预测
  • 如何用python画一棵分形树
  • [C++] enum 以及 enum class 简单用法
  • 一文掌握Splash的详细使用
  • QT Creator添加延迟的方法
  • 爬取网易云歌单信息并分析
  • 有向图的拓扑排序-BFS求解
  • 如何选择DevOps平台?GitHub、GitLab、BitBucket、Jenkins对比与常见问题解答
  • javascript经典练习题-语法与特性
  • word转换为pdf后图片失真解决办法、高质量PDF转换方法
  • HTML 基础 (快速入门)详细步骤和示例
  • 编程小白冲Kaggle每日打卡(17)--kaggle学堂:<机器学习简介>随机森林
  • UniApp 中封装 HTTP 请求与 Token 管理(附Demo)
  • 运维安全之Linux网络安全(iptables)
  • Spring Boot Admin 踩坑
  • JWT+redis实现令牌刷新优化方案
  • esp8266 rtos sdk开发环境搭建
  • 如何使用大模型、知识库和AI工作流创建AI应用(扣子平台)
  • element中el-table表头通过header-row-style设置样式