AI图像处理之ComfyUI节点(二)
一、Load Checkpoint节点
功能:用于加载预训练的大模型,如Stable Diffusion等
参数:
chechkpoint:选择加载的模型文件(.ckpt或.satetensors格式)
MODEL:输出用于图像扩散预测的UNet模型
CLIP:输出文本编码器,用于将提示词转换为语义向量
VAE:输出变分自动编码器,用于将潜在空间图像解码为像素图像
二、CLIP Text Encode节点
功能:将文本提示词编码为模型可理解的语义向量
参数:
CLIP:接收用于编码的提示词的CLIP模型
文本输入:输入正向或方向的提示词
CONDITIONING:输出编码后的条件信息,用于引导图像生成
三、KSampler节点
功能:对潜在空间噪声图像进行逐步去噪,生成图像
参数:
model:接收来自大模型的数据流
positive:接收经过CLIP编码的正向提示词条件信息
negative:接收经过CLIP编码的反向提示词条件信息
latent_image:接收潜在空间图像信息
seed:随机种子数,用于控制噪声生成
control_after_generate:种子生成后控制方式(固定、递增、递减、随机)
steps:去噪步数,步数越多,去噪效果效果越明显。噪声是指由于各种干扰因素引入的随机或不规则的信号,导致图像质量下降的现象
cfg:提示词引导系数,值越高,提示词对最终结果的影响越大。
sampler_name:采样器名称,不同的采样器会影响生成图像的结果。Euler(快速生成草图测试)、Euler a(需要创意性的输出场景)、Heun(追求高质量,速度较慢)、DPM++ 2M和Karras(通用场景、推荐默认)、DPM++ SDR和Karras(需要丰富细节和风格)、LMS(需要稳定输出的任务)、DDIM(需要可复现结果的实验)、UniPC(快速生成高质量图像)
scheduler:调度器名称,影响生成过程中的采样和控制策略。normal(基础测试)、karras(高质量生成,推荐默认)、exponential(需要快速初期去噪)、sgm_uniform(科研场景)、simple(兼容旧模型)
denoise:去噪幅度,值越大,图像变化和影响越显著
四、Upscale Latent节点
功能:放大潜在空间图像,提高生成图像的分辨率。
参数:
samples:接收经过 KSampler 处理后的潜在空间图像。
upscale_method:放大算法。
scale_by:调整图像的比例。
width:缩放后的图像宽度。
height:缩放后的图像高度。
crop:是否裁剪图像(disabled 表示不裁剪,center 表示从中心裁剪)。
五、VAE Decode节点
功能
将潜在空间图像解码为像素级图像
参数
samplers:接收经过KSampler处理后的潜在空间图像
vae:接收用于解码的VAE模型
tile_size:设置分块解码时块的大小,用于解决显存不足的问题。显存不足时,ComfyUI会自动调用分块解码
六、Apply Controlnet节点
功能:在图像生成过程中应用控制网络(ControlNet),引入更多的控制。
参数:
Conditioning:接收传入的条件信息,如通过 CLIP Text Encode 处理后的文本信息。
control_net:加载 ControlNet 模型。
image:加载经过预处理的图片。
strength:控制权重程度,数值越高,约束越强。
start_percent:开始接入controlNet控制的起始百分比。开始使用基础模型自由生成,开始百分比后受controlnet控制
end_percent:与start_percent一起使用,结束使用controlnet控制的百分比。结束百分比前受controlnet控制,后面由基础模型自由生成