2024年的时候用过一阵子ComfyUI,那个难用.最大的问题是
- 找不到好的工作流文件
- ComfyUI本身包都跑不起来
- 工作流找到了,包也跑起来了,结果跑工作流一大堆问题.节点丢失,版本不匹配等等.很多问题,
- 直接劝退了.
随着时间的推移,基于webUI的方式始终无法高效的复制性生产.所以还是需要攻破ComfyUI的壁垒.因此开始准备编写这个24天学会ComfyUI。部分资料采集自 2img.ai 和 2video.cn

1 首先准备安装包:
这个是官网,针对windows 有独立的安装包,下面链接直接下载
解压后,有GPU的运行run_nvidia_gpu.bat,没有的运行run_cpu.bat
CPU的版本根据个人的经验,比3080GPU的慢4倍以上,自己去想吧.

2 其次 Manager这个自定义的插件是必须的
官方地址:

它很重要很重要.帮助我们自动更新ComfyUI , 自动安装缺失的节点等等.
Git获取下来之后,把这个目录放在该目录下
ComfyUI_windows_portableComfyUIcustom_nodes
ComfyUI Manager作为一个自定义的节点存在.
使用的时候,ComfyUI的主界面上点击开即可,如下图

3 开始第一个工作流吧.
下载这个大模型
放到ComfyUI的该目录下 ComfyUI_windows_portableComfyUImodelscheckpoints
然后下载工作流文件,就是一个图,直接拖到ComfyUI的界面中,它自动会识别成一个工作流.真的很神奇

下载一个测试文件,放置到目录ComfyUI_windows_portableComfyUIinput 下

最后你的工作流界面基本上如下图,点击[运行]尝试下吧.

我来解释几个重要的点:
- Checkpoint加载器,指定我们刚才下载的大模型. 这个大模型如果大家知道,就大约知道是3D生成方面的.可以根据用户输入的一张2D图,生成3D的模型.
- StableZero123的条件,都是针对最终输出的模型或者图像内容的设置. 你看到的高度,宽度,仰角等.
具体你可以调整下,看看针对最终右侧图像的影响
- K采样器,就是常规的采样器配置.
- VAE解码,这个是最终输出到图像的必备.
- 最终图像,就是效果. 这个内容对应输出在ComfyUI_windows_portableComfyUIoutput3d
好了.有个问题,这个工作流文件我们弄好了,想要保存下来.点击上方的菜单.进行保存或者导出

保存的默认目录在:ComfyUI_windows_portableComfyUIuserdefaultworkflows
导出可以让你随意选择一个位置.实质上处理的工作流都是一个json文件而已.
一般的,ComfyUI自己维持了一个管理系统.如下图

总体来说,大家一般都是到处成json文件,然后相互分享或者转发.
RA/SD 衍生者AI训练营。发布者:稻草人,转载请注明出处:https://www.shxcj.com/archives/9539