当前位置: 首页 > article >正文

ubuntu 部署deepseek

更新 apt update

升级  apt upgrade

格式化硬盘  mkfs.ext4 /dev/sdb

安装nginx

查看端口

一、安装Ollama

Ollama是一个开源的大型语言模型(LLM)推理服务器,为用户提供了灵活、安全和高性能的语言模型推理解决方案。

ollama/docs/linux.md at main · ollama/ollama · GitHub

curl -fsSL https://ollama.ai/install.sh | sh

感觉有点点慢

Releases · ollama/ollama · GitHub

先下载吧

下载解压

①启动Ollama

②下载模型

②run模型

ollama run deepseek-r1:1.7b

③访问

通过访问 http://localhost:11434 看到Ollama is running信息。

看个人喜欢,我改为8080端口

http://10.20.16.14:8080/

问题:本地可以访问,其它主机不可以访问

原因《监听0.0.0.0,把127.0.01:11434改为0.0.0.0:8080》

访问速度

这个界面体验部友好,我在windows上面测试下

4 可视化

部署chatbox可以实现UI界面的本地大模型交互。

可视化工具Chatbox官网:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载

服务器配置

配置

使用


http://www.kler.cn/a/581917.html

相关文章:

  • 【系统架构设计师】操作系统 - 进程管理 ⑤ ( 进程死锁 | 死锁 四大条件 | 死锁资源数计算 )
  • facebook游戏投广:提高广告关键数据的方法
  • Java实用注解篇:@Transactional 事务失效的场景深度解析
  • BambuStudio学习笔记:MultiMaterialSegmentation
  • 在Spring Boot项目中如何实现获取FTP远端目录结构
  • 架构师之路——设计模式篇(总览)
  • 【鸿蒙开发】Hi3861学习笔记- GPIO之LED
  • 数据安全之策:备份文件的重要性与自动化实践
  • C#与Python的差别
  • 如何在Spring Boot中校验用户上传的图片文件的两种方法
  • C语言(23)
  • 系统架构设计师-第5章 计算机网络
  • nextjs15简要介绍以及配置eslint和prettier
  • 【MySQL是怎么运行的】0、名词解释
  • 分布式 ID 设计方案
  • Rust 之一 基本环境搭建、各组件工具的文档、源码、配置
  • 【每日八股】Redis篇(四):持久化(下)
  • 机器学习中的梯度下降是什么意思?
  • 图像识别技术与应用课后总结(16)
  • Spring MVC 详细分层和微服务