当前位置: 首页 > article >正文

【大模型】本地部署DeepSeek-R1:8b大模型及搭建Open-WebUI交互页面

本地部署DeepSeek-R1:8b大模型

  • 一、摘要及版本选择说明
    • 1.1 摘要
    • 1.2 版本选择
  • 二、下载并安装Ollama
  • 三、运行DeepSeek-R1:8b大模型
  • 四、安装Open WebUI增强交互体验
  • 五、关闭Ollama开机自动启动
  • 六、DeepSeek大模型启停步骤

一、摘要及版本选择说明

1.1 摘要

作为一名对 AI 和生成式模型感兴趣的开发者或学习者,了解如何在小规模环境中部署这些模型是有趣且有益的。在个人笔记本上部署 DeepSeek-R1 是一种具有挑战性的但非常有价值的实践。它不仅可以帮助你快速实现文本生成和问答功能,还能通过不断解决遇到的问题,提升你的技术能力和对 AI 模型的理解。尽管过程中可能会遇到资源不足、配置复杂等问题,但通过仔细规划和持续学习,最终可以成功完成部署并享受到模型带来的便利。本文将介绍下载安装Ollama的方法,并且根据个人电脑的配置选择合适的DeepSeek版本进行安装部署测试,然后通过安装部署Open-WebUI交互页面来增强使用大模型的体验的整个过程。

1.2 版本选择

DeepSeek R1对硬件资源比较友好,对不同硬件配置有良好的适应性,能根据用户计算机硬件配置选择合适的模型版本。入门级设备拥有4GB 存和核显就能运行1.5B(Billion,十亿,大模型参数的数量)版本;进阶设备8GB内存搭配4GB显存就能驾驭7B版本;高性能设备则可选择32B版本。而且,DeepSeek R1支持低配置电脑,即使是没有独立显卡的低配置电脑,只要有足够的空余硬盘空间,如部署最大的6710亿参数的大模型需要至少1TB的空余空间,也能完成部署。
本人电脑配置支持DeepSeek-R1:8b,因此选择部署DeepSeek-R1:8b大模型。

二、下载并安装Ollama

  1. 下载Ollama
    访问Ollama官网, 点击“Download”,根据操作系统下载自己操作系统对应的安装包,比如,Windows用户可以点击“Windows”图标,然后,点击“Download for Windows”下载安装包。需要注意的是,对于Windows系统,这里仅支持Windows10及其以上版本。
    在这里插入图片描述
  2. 安装Ollama
    下载完成后,双击【OllamaSetup.exe】,在弹窗中点击【Install】,默认安装即可。当安装成功后,一般会在电脑右下角有个提示框,如果你点击该提示框,会打开cmd,如下图所示:
    在这里插入图片描述
    可以在该cmd中输入命令,查看当前ollama的版本:
     ollama --version
    
    执行效果如下:
    在这里插入图片描述
    如果你没有看到电脑右下角的那个弹窗,可以自己打开cmd,然后执行上述查看版本命令,也是可以的,具体如下:
    在这里插入图片描述

三、运行DeepSeek-R1:8b大模型

蒸馏模型
DeepSeek团队已经证明,大型模型的推理模式可以被提炼到小型模型中,与通过小型模型的强化学习发现的推理模式相比,可以获得更好的性能。
以下是通过使用DeepSeek-R1生成的推理数据,针对研究社区广泛使用的几个密集模型进行微调而创建的模型。
在这里插入图片描述

  1. 运行或下载模型
    在cmd中运行如下命令:

    ollama run deepseek-r1:8b
    

    该命令执行时,会进行如下两个方向的操作:

    • 本地模型检查:Ollama 会检查本地是否已经下载并缓存了 deepseek-r1:8b 模型。它会在 Ollama 默认的模型存储目录中查找该模型的相关文件。
    • 模型下载:如果本地没有找到该模型,Ollama 会尝试从其默认的模型注册表(通常是 Ollama 官方的模型仓库)下载 deepseek-r1:8b 模型。在下载过程中,会显示下载进度信息,直到模型文件全部下载完成并存储到本地。

    执行成功后,效果如下:
    在这里插入图片描述

  2. 测试模型能否正常推理
    在刚刚运行ollama run deepseek-r1:8b的cmd窗口中,输入相关的问题,如下所示:
    在这里插入图片描述
    秒级得到回复,性能还是很好的,给deepseek点赞!!

  3. (可选)检查一下运行deepseek-r1:8b用掉了多少GPU
    如果你本地电脑有Nvidia显卡,且已经安装了cuda,可在cmd中输入:nvidia-smi命令查看GPU使用情况:
    在这里插入图片描述

四、安装Open WebUI增强交互体验

这种命令行的交互方式不是特别友好,因此我们安装Open WebUI来增强交互体验。当然,只要是支持Ollama的WebUI都可以,如Dify、AnythingLLM等。这里使用比较简单而且也是与Ollama结合比较紧密的Open WebUI。可以在cmd命令行窗口中执行如下命令安装Open WebUI,注意:这里使用国内清华大学的安装源镜像,这样可以加快安装速度。具体步骤如下:

  1. 检查本地电脑是否安装Microsoft Visual C++ Build Tools

    • 按下 Win + R 组合键打开 “运行” 对话框。
    • 在对话框中输入 appwiz.cpl 并回车,打开 “程序和功能” 窗口。
    • 在程序列表中查找 “Visual Studio Build Tools” 相关的条目。如果能找到类似 “Microsoft Visual Studio Build Tools 20xx”(xx 代表具体版本号)的程序,说明已经安装了 Visual C++ Build Tools。
      我电脑没有查到,如图所示:
      在这里插入图片描述
      如果此时执行pip install open-webui -i https://pypi.tuna.tsinghua.edu.cn/simple命令时,报错如下:
      在这里插入图片描述
    • 需要安装Microsoft Visual C++ Build Tools
      • 到微软官网下载
        在这里插入图片描述
        下载完成后的安装包为:vs_BuildTools.exe
      • 双击vs_BuildTools.exe安装包,进行安装。
        在弹出的安装界面中(如下图所示),在界面左上角的“桌面应用和移动应用”下方,选中“使用C++的桌面开发”,然后,点击界面右下角的“安装”按钮,完成安装。
        在这里插入图片描述
        点击【安装】按钮,会看到如下页面:
        在这里插入图片描述
        等待一会儿,就完成了安装,如下图所示:
        在这里插入图片描述
        点击【确定】按钮,然后关闭“Visual Studio Install”安装窗口即可。
  2. 确保本地已经Python环境:

    python --version
    

    在这里插入图片描述

  3. 执行安装open-webui的命令:

    pip install open-webui -i https://pypi.tuna.tsinghua.edu.cn/simple
    

    执行过程如下:
    在这里插入图片描述

  4. 可以执行如下命令启动Open WebUI服务

    open-webui serve
    

    注意,如果启动以后,看到下面界面,说明还没有启动成功,需要继续等待。可以敲击几次回车。
    在这里插入图片描述
    在继续等待过程中,可能屏幕上会出现一些错误信息,里面会包含如下内容:
    在这里插入图片描述
    这个错误信息说明,启动过程连接Hugging Face Hub失败。Hugging Face Hub网站在国外,所以,经常会连接失败,所以,导致open-webui启动过程始终停止不动。
    直到出现下面屏幕信息以后,才说明启动成功了。
    在这里插入图片描述
    启动后,在浏览器中访问http://localhost:8080/即可进入Open WebUI界面。如果网页显示“拒绝连接”,无法访问Open WebUI界面,一般是由于你的计算机开启了Windows防火墙,可以关闭本地电脑防火墙即可。
    如正常访问,会看到如下:
    在这里插入图片描述
    点击【开始使用】,进入填写邮箱页面,即需要注册一个管理员账号(如图所示),然后,就可以开始使用了。
    在这里插入图片描述
    此时会看到如下页面(如看不到,需要确保ollama服务已启动,在任务管理器可查看):
    在这里插入图片描述
    点击【确认,开始使用!】按钮,然后会看到我们自己部署的模型:
    在这里插入图片描述
    可以在对话框中输入你想要对话的内容,比如“请问如何快速高效地学习并掌握deepseek大模型”,然后回车,页面就会给出DeepSeek R1的回答结果,如图所示:
    在这里插入图片描述

五、关闭Ollama开机自动启动

在Windows 中如果想要将应用程序设置为开机自启动,其步骤如下:

  1. 按下 Win + R 组合键,打开 “运行” 对话框,输入 shell:startup 并回车,这会打开 “启动” 文件夹。
  2. 找到 Ollama 的可执行文件(通常在安装目录下),创建其快捷方式。
  3. 将创建好的快捷方式复制或移动到 “启动” 文件夹中。
    我们可以按照这个方法检查并确认Ollama应用程序是否是开机自启动,通过如上步骤,我们得知ollama确实被设置成了开机自启动:
    在这里插入图片描述

由于ollama安装完成后会默认被设置成开启自动,为了节省当我们不需要使用ollama时的资源,可以将其关闭掉。具体步骤如下:

  1. 打开任务管理器,点击左侧【启动应用】选项,找到ollama,如图所示:
    在这里插入图片描述
  2. 把鼠标指针放到“已启动”上面,单击鼠标右键,在弹出的菜单中点击“禁用”,然后关闭任务管理器界面。经过这样设置以后,Ollama以后就不会开机自动启动了。

六、DeepSeek大模型启停步骤

  1. 停止大模型
    当我们本次使用完大模型时,只需要关闭各个cmd命令行窗口,大模型就停止运行了。
  2. 启动大模型及open-web步骤如下:
    • (可选)确保ollama应用程序处于启动状态(该步骤如关闭Ollama开机自启动的话,需要先启动ollama服务)
    • 新建一个cmd命令行窗口,在cmd命令行窗口中执行如下命令启动DeepSeek R1大模型:
      ollama run deepseek-r1:8b
      
    • 再新建一个cmd命令行窗口,在cmd命令行窗口中执行如下命令启动Open WebUI服务:
      open-webui serve
      
    • 在浏览器中访问大模型对话页面
      在浏览器中访问http://localhost:8080/即可进入Open WebUI界面,开始使用大模型。

http://www.kler.cn/a/540397.html

相关文章:

  • 深入探究 Rust 测试:灵活控制测试的执行方式
  • 《艾尔登法环》运行时弹窗“由于找不到vcruntime140.dll,无法继续执行代码”要怎么解决?
  • Vue3 Ref全家桶详解:从入门到实战
  • 01单片机上电后没有正常运行怎么办
  • [权限提升] Linux 提权 维持 — 系统错误配置提权 - Sudo 滥用提权
  • Spring统一修改RequestBody
  • 高级加密标准AES候选算法之一CAST-256
  • 驱动开发系列36 - Linux Graphics 2D 绘制流程
  • STC 51单片机62——极简 4x4x4光立方
  • 2025上半年还可以参加那些数学建模竞赛?
  • 使用css3锥形渐变conic-gradient实现有趣样式
  • 基于 Git、Jenkins 和 Docker 的自动化持续集成与部署实践
  • 【Elasticsearch】集群配置性能优化
  • D3实现站点路线图demo分享
  • 【Deepseek】本地部署Deepseek
  • C# OpenCV机器视觉:对位贴合
  • 【开源免费】基于SpringBoot+Vue.JS校园网上店铺系统(JAVA毕业设计)
  • QNX800 run in Raspberry Pi
  • DeepSeek 实践总结
  • Vue全流程--Vue3组合一ref与reactive(实现响应式)
  • 零阶保持器(ZOH)变换和Tustin离散化变换以及可视化
  • 大语言模型RAG,transformer
  • 微信小程序分包异步化
  • 【时时三省】(C语言基础)基础习题1
  • Open Liberty使用指南及开发示例(二)
  • C++基础知识学习记录—补充