当前位置: 首页 > article >正文

生活电子常识-deepseek-r1本地化部署+ui界面搭建

前言

deepseek-r1 14b模型,32b模型部署在本地电脑上也能实现非常好的性能。
因此有兴趣研究了下如何在本地部署。
同时最新流行mauns工作流,他们提供一句话实现网页端任意应用的能力。实际上,你也可以用本地的模型来实现离线的ai工作流功能。
不过这里讲述本地如何首先搭建大模型,一步步来
具体的实现原理,操作步骤如下

原理

1.安装ollama

作用是提供大模型的运行环境,以及提供外部的大模型调用api接口
你没看错,本地部署的大模型也可以提供api接口,这也是后来我们可以使用其他ui界面来访问这个本地大模型的基础
访问https://ollama.com/,下载ollama.exe
在这里插入图片描述
安装后,然后在命令框中查看是否可用,可用如图所示
在这里插入图片描述

2.选择模型下载

如图所见,可以选择qwn32b模型,deepseekr1模型等等
在这里插入图片描述

3.使用命令配置模型,等待下载好即可

在这里插入图片描述
命令敲入cmd框中,模型将会自动下载,等待下载好即可。

4.查看可用模型列表,启动模型

可以根据如图片中命令,查看已经安装的模型名称,然后启动即可
在这里插入图片描述

5.启动模型,对话

ollama run deepseek-r1:14b

6.设置ui界面对话

去chorme扩展商店中搜索page assist插件,安装
在设置中勾选简体中文,即可展示
同时因为ollama为其安装的模型提供了api接口,这个ui插件,也可以访问那些大模型,进行流畅对话
在这里插入图片描述
在这里插入图片描述
同时,也可以为模型构建知识库,让其回答的更加贴合知识库语料
在这里插入图片描述
同时,局域网内,别人访问你的大模型api也可以访问你本地的大模型进行交流
在这里插入图片描述

6.1另外一款ui软件

如图所配置即可,chatbox为模型提供了图片和文档上传功能,更加符合日常使用需求。
在这里插入图片描述


http://www.kler.cn/a/597789.html

相关文章:

  • 练习:自动驾驶
  • xy轴不等比缩放问题——AUTOCAD c#二次开发
  • 【leetcode题解】宽搜(BFS)
  • AI 驱动视频处理与智算革新:蓝耘MaaS释放海螺AI视频生产力
  • HTTP/HTTPS 中 GET 请求和 POST 请求的区别与联系
  • Python基于深度学习的中文情感分析系统(V2.0,附源码,文档说明)
  • 汽车制造MES
  • langfuse追踪Trace
  • pyecharts在jupyter notebook中不能够渲染图表问题。
  • Second-Me: 训练你的 AI 自我以连接世界
  • android音频概念解析
  • 2025年2月-3月后端go开发找工作感悟
  • YOLO11改进|全网首发|YOLO11中引入轻量级坐标注意力LCA
  • Aider的Repo Map功能
  • 【开源宝藏】30天学会CSS - DAY6 第六课 流光文字动画
  • Linux网络相关概念和重要知识(3)(TCP套接字编程、远程命令的实现)
  • gotool.top 在线实时跨平台文件互传
  • 怎么绑定一个计算属性或数据属性来控制元素的类名
  • 31天Python入门——第9天:再学函数
  • Android Compose 状态保存(rememberSaveable、LocalSavedStateRegistry)框架深入剖析(十六)