当前位置: 首页 > article >正文

从0开始本地部署大模型

这就开始从0开始本地部署大模型

下载Ollama

下载地址:https://ollama.com/download/windows
适用于MacOS、Linux和Windows,这里我下载Windows的安装包。

直接打开安装包,点击install即可,安装完成后可以在任务栏中看到Ollama程序已经启动。
此时,可以通过Windows terminal或其他Windows终端应用输入ollama即可验证是否安装成功。
在这里插入图片描述

安装MaxKB

未来能够有一个更加友好的交互页面,总不能一直都用命令行交互吧。
那么就可以使用MaxKB了,这是一个基于大语言模型和RAG的知识库问答系统。
官方网址:https://maxkb.cn/
在这里插入图片描述
这里我们可以通过docker来一键部署:
Windows上:docker run -d --name=maxkb --restart=always -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data cr2.fit2cloud.com/1panel/maxkb

安装成功后,可通过浏览器访问 MaxKB:

http://目标服务器 IP 地址:8080
默认登录信息
用户名:admin
默认密码:MaxKB@123…

docker拉取完成后会自动启动,我们通过上面的默认地址和账号秘密即可登录。
在这里插入图片描述
在系统管理中可以找到模型设置,其中就可以添加私有Ollama模型了。
在这里插入图片描述
配置如下,其中API域名处不能使用127.0.0.1和localhost,因此改用你的本机IP地址即可。API key随意填写。
在这里插入图片描述
接下来,我们添加一个应用,选择这个下载的Llama3模型。
在这里插入图片描述
发布后的应用效果如下:
在这里插入图片描述
这样你就拥有了一个本地大模型了。


http://www.kler.cn/a/378237.html

相关文章:

  • UI自动化测试 —— CSS元素定位实践!
  • Redis 初学者指南
  • 响应式网页设计案例
  • 每周算法比赛
  • Android亮屏Job的功耗优化方案
  • NumPy Ndarray学习
  • MyBatis-Plus条件构造器:构建安全、高效的数据库查询
  • NVR小程序接入平台/设备EasyNVR多个NVR同时管理视频监控新选择
  • C语言中的快速排序
  • DNA、蛋白质、生物语义语言模型的介绍
  • ARM cpu算力KDMIPS测试
  • 用 Ray 扩展 AI 应用
  • Django+Vue全栈开发旅游网项目景点详情
  • Linux系统-僵尸孤儿进程
  • Android平台RTSP转RTMP推送之采集麦克风音频转发
  • 【C++】多态的语法与底层原理
  • MATLAB算法实战应用案例精讲-【数模应用】PageRank(附MATLAB、C++、python和R语言代码实现)
  • 《Java 实现快速排序:原理剖析与代码详解》
  • thinkphp中命令行工具think使用,可用于快速生成控制器,模型,中间件等
  • 智源推出小时级超长视频理解大模型Video-XL
  • MVC(Model-View-Controller)模式概述
  • 【WPF】深入理解并发、并行、单线程、多线程、同步、异步概念
  • __attribute__ ((__packed__))
  • 计算机网络:网络层 —— 路由信息协议 RIP
  • 智驭模板引擎管理系统(SmartTemplate Manager)
  • k8s环境下rabbitmq安装社区插件:rabbitmq_delayed_message_exchange