clip模型
clip_vision 视觉模型:即图像编码器,下载完后需要放在 ComfyUI /models/clip_vision 目录下。
IPAdapte模型的Clip模型
IPAdapter文件需要和CLIP Vision模型匹配,下载存放在 ComfyUI\models\clip_vision 目录。
CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors
如果IPAdapter文件是 ip-adapter_sdxl_vit-h.safetensors,那么CLIP Vision模型应该是CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors。
CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors
clip-vit-large-patch14-336.bin
clip-vit-large-patch14
作用:给图片和提示词建立关联用的。
下载地址:https://modelscope.cn/models/AI-ModelScope/clip-vit-large-patch14/files
sigclip_patch14-384.safetensors
用途:
sigclip_patch14-384.safetensors模型主要用于CLIP Vision模块,特别是在风格迁移和场景融合方面表现出色。它能够根据一个输入图像生成图像变化,无需提示,非常适合快速生成特定风格的图像。
安装方法:
确保你的ComfyUI已经更新到最新版本。
下载sigclip_patch14-384.safetensors模型,下载整个文件夹,并将其保存到ComfyUI的models/clip_vision文件夹中。下载地址为:https://huggingface.co/google/siglip-so400m-patch14-384/tree/main。
通过以上步骤,你可以成功安装并使用sigclip_patch14-384.safetensors模型,在ComfyUI中进行风格迁移和场景融合等操作。