【Linux】环境搭建Qwen2-VL-7B模型(图文详解-成果案例)
一、硬件环境
操作系统:Ubuntu 22.04
CPU:16+60G
GPU:24G
二、项目地址
1.代码地址:GitHub - QwenLM/Qwen2-VL: Qwen2-VL is the multimodal large language model series developed by Qwen team, Alibaba Cloud.
2.Qwen2-VL-7B模型地址:Qwen/Qwen2-VL-7B-Instruct · Hugging Face
3.modelscope的Qwen2-VL-7B模型地址:魔搭社区
说明:如果你服务器不支持访问Hugging Face的地址或者先通过代理下载到本地在上传到服务器,或者在服务器上通过魔塔社区地址进行下载。
三、Qwen2-VL-7B部署
1.准备工作
(1)安装Anaconda软件
可参考博客:Linux环境安装Anaconda(详细图文)_linux安装anaconda-CSDN博客
(2)创建Qwen2-VL需要的python环境并激活
① 创建Qwen2-VL环境
conda create -n qwen2-vl python=3.10
② 激活环境
conda activate qwen2-vl
2.拉取Qwen2-VL项目代码
(1)切换到磁盘挂载目录
cd /data/
(2)拉取代码并切换到对应目录
git clone https://github.com/QwenLM/Qwen2-VL.git
cd Qwen2-VL
(3)下载依赖
pip install -r requirements.txt
文件内容如下:
如果通过 pip install -r requirements.txt 不能下载,那么我们可以手动下载以上文件内容。
git clone https://github.com/huggingface/transformers
cd transformers
pip install . accelerate
pip install qwen-vl-utils
pip install torchvision
pip install gradio==4.42.0 # 说明最好下载最新版,及不指定版本(pip install gradio)
pip install gradio_client==1.3.0 # 说明最好下载最新版(pip install gradio_client)
下载好了之后内容如下:
3.下载Qwen2-VL模型
方式一:手动下载
通过windows上挂载代理软件访问抱脸地址:https://huggingface.co/Qwen/Qwen2-VL-7B-Instruct 把Files and versions 下文件全部下载,模型下载时间比较长,耐心等待。
方式二:通过modelscope下载
可以在服务器上通过命令,这个下载速度相对较快。
git lfs install
git clone https://www.modelscope.cn/Qwen/Qwen2-VL-7B-Instruct.git
或
pip install modelscope
modelscope download --model Qwen/Qwen2-VL-7B-Instruct
4.修改web_demo_mm.py文件内容
说明:主要修改模型加载路径和访问的地址端口。
vim web_demo_mm.py
5.尝试启动(GPU)
python web_demo_mm.py
或 CPU启动
python web_demo_mm.py --cpu-only
报错如下:百度之后发现是由于这是由于gradio
版本与pydantic
版本不匹配导致的错误。。
解决方案:由于我之前安装 gradio的指定了版本信息,因此直接通过命令升级: pip install --upgrade gradio
启动成功:
四、验证
访问:IP+端口
注意:需要开放对应的端口。
到此大功告成,web端部署成功。大家感兴趣的可以试试。