当前位置: 首页 > article >正文

macpro m1 安装deepseek

记录一下安装过程:

一、环境准备

  1. 硬件要求

    • 内存 ≥16GB:DeepSeek R1-8B 模型需占用约 4.9GB 显存,建议预留足够内存以避免运行卡顿29。

    • 存储空间 ≥10GB:模型文件及依赖库需占用较大空间212。

  2. 软件依赖

    • 安装 Ollama:作为模型管理工具,支持一键部署。

      • 访问 Ollama 官网,下载 macOS 版本并安装。

      • 验证安装:终端输入 ollama --version,显示版本号即成功。

二、安装 DeepSeek R1-8B 模型

  1. 下载模型

    • 终端执行命令:

      bash

      复制

      ollama run deepseek-r1:8b

      此命令将自动下载并安装 8B 版本的模型,下载完成后显示 success 即成功。

  2. 验证模型运行

    • 输入 ollama list 查看已安装模型,确认 deepseek-r1:8b 存在。

    • 启动交互模式:

      bash

      复制

      ollama run deepseek-r1:8b

      输入问题测试响应,输入 /bye 退出。


三、进阶配置(可选)

  1. 通过 Open-WebUI 提供图形界面

    • 安装 Docker:从 Docker 官网 下载 macOS 版本并启动服务。

    • 运行 Open-WebUI 容器:

      bash

      复制

      docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

      访问 http://localhost:3000 配置 Ollama 模型即可使用 Web 界面。

  2. 与 LM Studio 集成(适合新手)

    • 下载 LM Studio,搜索 deepseek-r1 选择 8B 模型下载,提供可视化操作界面。


四、常见问题与优化建议

  1. 安装失败处理

    • 网络问题:重试命令或切换网络环境12。

    • 依赖缺失:确保已安装 Xcode 命令行工具(终端运行 xcode-select --install)6。

  2. 性能优化

    • 调整参数:在 LM Studio 中设置 Temperature=0.6top-p=0.95,减少随机性并提升回答质量9。

    • 关闭后台程序:释放内存资源,避免模型运行卡顿。

  3. 局限性说明

    • 回答准确性:8B 模型在复杂数学或长文本任务中可能表现一般,建议降低预期。

    • 知识库时效性:本地模型无法联网更新知识,需定期手动更新数据。



http://www.kler.cn/a/562718.html

相关文章:

  • Python【数据处理】高级编程
  • 流程管理和质量体系管理怎样有效的整合
  • SSD 固态硬盘存储密度的分区
  • 什么是 Java 中的线程安全?
  • react中,在组件内返回style标签方法
  • mysql有索引但是查询没有使用索引是什么问题
  • mac修改docker的daemon.json 镜像文件
  • DeepSeek:面向效率与垂直领域的下一代大语言模型技术解析
  • Deepseek底层技术解析:构建下一代对话式AI的核心架构
  • 【Linux C | 时间】localtime 的介绍、死机、死锁问题以及 localtime_r 函数的时区问题
  • C语言实现通讯录项目
  • 基于Zigbee的三车协作智能小车项目改进方案
  • python学习四
  • 计算机视觉:经典数据格式(VOC、YOLO、COCO)解析与转换(附代码)
  • idea创建第一个springboot程序
  • 数据开发面试:DQL,
  • 深入解析 Linux /etc/skel 目录的作用与使用方法
  • C# 打印Word文档 – 4种打印方法
  • PDF转HTML 超级好用 免费在线转换PDF 完美转换格式
  • 微信小程序记录用户在图书详情页面停留时间--即阅读时间,如果超过两小时,则每小时提醒用户一次