当前位置: 首页 > article >正文

vllm+openwebui,玩转私有化AI

架构

采用vllm推理框架,启动llamafactory微调训练好的大模型

openwebui做前端调用

使用

vllm启动:vllm serve /root/autodl-tmp/model/Qwen/Qwen2.5-VL-3B-Instruct-merge(模型地址)

安装open webui流程

#创建一个open-webui的conda环境
conda activate open-webui
# 安装open-webui
pip install -U open-webui torch transformers

# 切换到新建的环境
conda activate open-webui
#配置
export HF_ENDPOINT=https://hf-mirror.com
#因为open-webui默认为ollama框架,所以使用vllm框架启动大模型的话需要将这里改为false
export ENABLE_OLLAMA_API=false
#调用大模型的地址,vllm的默认启动端口为8000
export OPENAI_API_BASE_URL=http://127.0.0.1:8000/v1

#启动openwebui
open-webui serve

启动openwebui后,如果没有跳转到web页面的话,需要自己手动配置一下8080端口转发

然后再去访问8080端口,就会出现这个页面,这个是随便输入的

然后就可以跟大模型进行对话


http://www.kler.cn/a/612905.html

相关文章:

  • 蓝桥与力扣刷题(蓝桥 最少刷题数)
  • python力扣73.矩阵置零
  • 卷积神经网络输入通道和输出通道的确定
  • JVM 面经
  • 【vLLM 学习】快速入门
  • Windows .gitignore文件不生效的情况排查
  • 板端ros2 VM ubuntu 虚拟机之间通信
  • Java 基本数据类型 vs 包装类(引用数据类型)
  • flink 分组窗口聚合 与 窗口表值函数聚合 的区别
  • 基于飞腾FT2000+服务器主板与DeepSeek大模型的国产化AI算力探索
  • 典范硬币系统(Canonical Coin System)→ 贪心算法
  • React19源码系列之Hooks(useRef)
  • 基于DrissionPage的TB商品信息采集与可视化分析
  • 深度解析Spring Boot可执行JAR的构建与启动机制
  • ubuntu22.04 ROS2humble 路径文件
  • 蓝耘平台API深度剖析:如何高效实现AI应用联动
  • 【剪辑_BGM 整合】
  • C++设计模式-备忘录模式:从基本介绍,内部原理、应用场景、使用方法,常见问题和解决方案进行深度解析
  • AI知识补全(六):RLHF 人类反馈强化学习是什么?
  • Pandas的轴,axis=0,axis=1