【文生图】Win10环境借助基于ComfyUI的图狗2.3.1抢先体验阿里万相wan2.1
【文生视频】Win10环境借助基于ComfyUI的图狗2.3.1抢先体验阿里万相wan2.1
前言
上周【也就是20250225】阿里云视觉生成基座模型万相2.1(Wan)宣布开源!
Github: https://github.com/Wan-Video/Wan2.1
HuggingFace:https://huggingface.co/spaces/Wan-AI/Wan2.1
魔搭社区:https://modelscope.cn/studios/Wan-AI/Wan-2.1
分为1.3B小模型和14B大模型,其中1.3B小模型只能用于文生图/480P的视频,14B大模型额外支持图生视频/720P视频。借助于类似Topaz
等AI软件,将视频拉到4K240Fps并不难。尤其是1.3B小模型只需要8GB多一点的显存就可以勉强运行起来,适合我等经济困难的贫民窟难民使用!!!
最新的好消息是Wan2.1已经集成了ComfyUI:
但是笔者还没有部署过它,并且为了防止复杂的环境配置产生新问题,更倾向于使用类似容器化等方式减少环境方面的影响。
感谢B站大佬【灵仙儿和二狗子】封装好的一键启动包,自带所需的Python
环境,解压即用,麻麻再也不用担心我的运维能力有待提高了:
https://www.bilibili.com/video/BV1cG9uYNEs7
整合包由于自带了1.3B小模型和14B大模型导致RAR压缩包比较大,下载后需要140GB解压,启动后加载模型也很慢,建议有条件的最好放SSD,放HDD的话只要内存够大其实也只有首次初始化加载时很慢。
其他大佬也有提供类似的一键启动包,B站是个好大学。。。
导入缺失的模型
虽然叫整合包,但还是缺了一个模型:v1-5-pruned-emaonly-fp16.safetensors
下载好放置到启动包下即可:
E:\soft\ergouzi\ComfyUIwan2.1\models\checkpoints
启动图狗
双击启动即可。
使用自带的控制台启动,可以防止误关闭CMD命令。启动后还需要导入一个ComfyUI
的Json
,此时会出现一个画布:
民用小显卡就不用尝试图生视频了,别问我为神马知道的!!!
文生视频
笔者启用了第二个开关。
老老实实选1.3B的小模型。
提示词可以是中文也可以是英文。选好后就可以启动。
负载情况
可以看出主要是GPU
的Cuda
负载比较高,丽台RTX A4000
的16GB显存接近打满了!!!HDD加载速度慢、刀卡性能偏低导致耗时比较长。效果还是不错的。
输出
虽然叫做文生视频,但实际上生成的是个webp
的动图!!!拆帧及重新序列化、卷积拉高分辨率、插帧素质三联就不用笔者演示了,相信每一杆资深大数据学徒工都已掌握!!!
尾言
2025年注定是不平凡的一年,从DeepSeek
开始到混元
、Wan2.1
,陆续开源了好多优秀的模型,让我等庶民也能私有化部署,白piao
科学技术进步的成果!!!没有刀卡的童鞋们近期也可以白piao
比如即梦
、可灵
大模型。后续成熟了,再试试ComfyUI
原生部署Wan2.1
。
转载请注明出处:https://lizhiyong.blog.csdn.net/article/details/146030135