当前位置: 首页 > article >正文

DeepSeek本地部署WebUI可视化数据投喂训练AI

一、DeepSeek本地部署

**1、安装Ollama
**

首先我们需要安装Ollama,它可以在本地运行和管理大模型。

到Ollama官网 https://ollama.com,点击下载,然后选择适合自己系统的版本,这里选择Windows:

安装完成后,打开命令行界面并输入

ollama
1
如果屏幕上出现以下提示信息,那么恭喜你,Ollama 已经成功安装。

2、部署 DeepSeek R1 模型

首先,访问 Ollama 官网并点击页面顶部的「模型」(Models)选项,接着在列表中找到并点击「DeepSeek R1」:

在模型详情页面,根据我们计算机的显存容量选择合适的模型版本:

例如,我的电脑运行的是 Windows系统,拥有 4GB 的显存,因此我选择了1.5b 版本的模型。点击 1.5b 版本,页面右侧将显示下载指令:

将此下载命令复制并粘贴到命令行中执行开始下载:

待命令执行完毕,就可以通过命令行与DeepSeek大模型进行交互了:

但是在命令行窗口下对话,还是太抽象,我们需要一个美观的图文交互界面。

二、WebUI可视化

WebUI可视化选择直接在浏览器安装Page Assist插件的方式来实现。

Page Assist是本地 AI 模型的 Web UI,可以使用本地运行的 AI 模型来辅助进行网络浏览,利用本地运行的AI模型,在浏览网页时进行交互,或者作为本地AI模型提供者(如Ollama、Chrome AI等)的网页界面。

仓库地址:https://github.com/n4ze3m/page-assist

当前功能:

- 各类任务的侧边栏

- 支持视觉模型

- 本地AI模型的简约网页界面

- 网络搜索功能

- 在侧边栏与PDF进行对话

- 与文档对话(支持pdf、csv、txt、md、docx格式)

要把DeepSeek可视化,首先在扩展中的管理扩展页面,搜索找到Page Assist

然后点击获取Page Assist

获取完成后,就可以在扩展中看到PageAssist插件,点击对应的插件就可以直接使用。

进入插件后,选择我们上面下载好的deepseek模型,然后就可以跟DeepSeek进行可视化对话了,如果需要获取最新的数据,需要打开下方的联网开关。

到这里,DeepSeek的WebUI可视化就完成了。

三、数据投喂训练AI

三、数据投喂训练AI

实现数据投喂训练AI,需要下载nomic-embed-text和安装AnythingLLM。

下载nomic-embed-text:

在终端输入ollama pull nomic-embed-text回车下载nomic-embed-text嵌入式模型(后面做数据投喂会用到)。

安装AnythingLLM:

进入官网,选择对应系统版本的安装包进行下载

选择【所有用户】点击下一步。

修改路径地址中的首字符C可更改安装位置,本例安装到F盘,点击下一步。

点击完成。

软件打开后,点击【Get started】。

点击箭头,进行下一步。

输入工作区名称,点击下一步箭头。

点击【设置】,里面可以设置模型、界面显示语言等。

若软件显示英文,可在Customization外观定制里面选择Chinese即可。

AnythingLLM设置

在软件设置里面,LLM首选项界面,提供商选择Ollama,Ollama Model选择你前面下载的DeepSeek-R1系列模型1.5b~671b,然后点击Save changes。

在Embedder首选项界面,嵌入引擎提供商选择Ollama,Ollama Embedding Mode选择【nomic-embed-text】,然后点击保存更改。

①点击【工作区设置】,②点击聊天设置,③工作区LLM提供者选择【Ollama】,④工作区聊天模型选择【deepseek-r1】模型,⑤然后点击【Update workspace agent】。

代理配置界面,工作区代理LLM提供商选择【Ollama】,工作区代理模型选择【deepseek-r1】,然后点击【Update workspace agent】。

最后就是数据投喂训练AI:

在工作区界面,点击【上传】。

❶点击upload选择需要上传的文件(支持PDF、Txt、Word、Excel、PPT等常见文档格式)。❷勾选上传的文件,❸点击【Move to Workspace】。

点击【Save and Embed】。

没有投喂数据之前,输入正点原子公司名称是什么?AI是回答不了的,投喂后能够准确回答出来。

到这里数据投喂训练AI就完成啦,有需求的完全可以自己搭建一个智能知识库出来。

最后,本地部署和在线使用各有利弊,本地对GPU配置要求较高,但运行稳定,不受网速影响,还可以训练自己专属的大模型。有需要的小伙伴可以体验一下~


http://www.kler.cn/a/556521.html

相关文章:

  • android13修改系统Launcher不跟随重力感应旋转
  • 深入理解ES6核心特性:现代JavaScript开发的基石
  • 分布式 IO 模块:造纸设备的降本增效利器
  • BERT 大模型
  • LeetCode 2209.用地毯覆盖后的最少白色砖块:记忆化搜索之——深度优先搜索(DFS)
  • 机器学习 - 衡量模型的特性
  • uniapp引入uview组件库(可以引用多个组件)
  • 【机器学习】多元线性回归算法和正规方程解求解
  • 域内证书维权
  • 基于Python+Django+Vue的旅游景区推荐系统系统设计与实现源代码+数据库+使用说明
  • STL —— 洛谷字符串(string库)入门题(蓝桥杯题目训练)(二)
  • 不同安装路径重复R包清理
  • 解耦的艺术_应用架构中的解耦
  • 2024年职高单招或高考计算机类投档线
  • 【AI】openEuler 22.03 LTS SP4安装 docker NVIDIA Container Toolkit
  • 在nodejs中使用ElasticSearch(二)核心概念,应用
  • c++17 std::timespec_get 简介
  • 性格测评小程序10生成报告
  • SHELL32!SHLoadPopupMenu函数分析之添加属性菜单项
  • 1.22作业