当前位置: 首页 > article >正文

windows server独立部署Qwen2.5-vl-7B

服务器配置信息

CPU:64G

GPU:48G(RTX 4090)

一、使用conda下载模型 Qwen2.5-VL-7B-Instruct

conda下载

conda create --name qwen python=3.11

conda activate qwen

魔塔社区下载模型

 pip install modelscope

modelscope download --model Qwen/Qwen2.5-VL-7B-Instruct --local_dir ./Qwen2___5-VL-7B-Instruct 

二、下载项目代码及相关安装

git clone https://github.com/QwenLM/Qwen2.5-VL

cd Qwen2.5-VL

pip install git+https://github.com/huggingface/transformers accelerate

pip install qwen-vl-utils[decord]==0.0.8

三、下载GPU运行的PyTorch

pip uninstall torch torchvision torchaudio

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

四、搭建WebUI

git下来的Qwen2.5-VL目录下有个web_demo_mm.py文件,打开该文件,有两处需要修改:
第一处:修改模型加载的路径:

DEFAULT_CKPT_PATH = ‘E:\qwen2.5-vl\qwen2.5-vl-7B\Qwen2___5-VL-7B-Instruct’ (根据实际情况而定)

五、必要依赖安装

pip install gradio

pip install torchvision

六、启动命令

python web_demo_mm.py


http://www.kler.cn/a/541331.html

相关文章:

  • 第433场周赛:变长子数组求和、最多 K 个元素的子序列的最值之和、粉刷房子 Ⅳ、最多 K 个元素的子数组的最值之和
  • 十二、Docker Compose 部署 SpringCloudAlibaba 微服务
  • 线程上下文-ThreadLocal原理
  • [LUA ERROR] bad light userdata pointer
  • 2025年软件测试五大趋势:AI、API安全、云测试等前沿实践
  • k8s部署elasticsearch
  • Web3 的未来:从技术变革到社会经济影响的深度思考
  • 13.6 基于 LangChain架构优化实战:OpenAI-Translator翻译系统重构与10倍效率提升秘籍
  • vue基础(四)
  • 综合评价 | 基于随机变异系数-TOPSIS组合法的综合评价模型(Matlab)
  • python-leetcode 23.反转链表
  • repo使用介绍
  • Python:凯撒密码
  • CodeGeeX4+IDEA辅助开发工具
  • android的ViewModel这个类就是业务逻辑层吗
  • XML DOM
  • 深度学习01 神经网络
  • 项目实践之----贪吃蛇小游戏
  • 【Flink源码分析】6. Flink1.19源码分析-Flink底层的异步通信
  • 以讲故事手法在软文营销中运用2+1链动模式AI智能名片S2B2C商城小程序的策略研究
  • Android Knowledge
  • Redis 集群(Cluster)和基础的操作 部署实操篇
  • JAVA安全之Java Agent打内存马
  • MacOS 安装NVM
  • 场景设计:设计一个分布式限流器,采用令牌桶算法,漏桶算法、滑动窗口算法实现
  • 荣耀手机Magic3系列、Magic4系列、Magic5系列、Magic6系列、Magic7系列详情对比以及最新二手价格预测