- ComfyUI permite construir flujos visuales flexibles y reproducibles para Stable Diffusion.
- Domina text-to-image, i2i, SDXL, in/outpainting, upscale y ControlNet con nodos clave.
- Mejora con embeddings, LoRA y nodos personalizados; usa el Administrador para gestionarlos.
- Optimiza rendimiento y estabilidad con buenas prácticas, atajos y resolución de errores.
¿Guía definitiva de ComfyUI para principiantes? Si estás dando tus primeros pasos con ComfyUI y te abruma ver tantos nodos, cajas y cables, tranquilo: aquí vas a encontrar una guía de verdad, de las que empiezan desde cero y no se saltan lo importante. El objetivo es que entiendas qué hace cada pieza, cómo encajan entre sí y cómo resolver los errores típicos que desesperan cuando se intenta aprender solo probando.
Además de cubrir los flujos clásicos de texto a imagen, imagen a imagen, inpainting, outpainting, SDXL, upscale, ControlNet, embeddings y LoRA, también integraremos instalación, configuración, gestión de nodos personalizados con el Administrador, atajos y una sección práctica con recomendaciones reales de rendimiento en CPU y GPU. Y sí, también tocaremos cómo trabajar con vídeo usando modelos tipo Wan 2.1 (texto a vídeo, imagen a vídeo y vídeo a vídeo) dentro del ecosistema ComfyUI.
Qué es ComfyUI y cómo se compara con otras GUIs
ComfyUI es una interfaz visual basada en nodos construida sobre ការសាយភាយមានស្ថេរភាព que permite montar flujos de trabajo conectando bloques funcionales. Cada nodo hace algo concreto (cargar modelo, codificar texto, muestrear, decodificar) y los bordes conectan sus entradas y salidas, como si montaras una receta visual.
Frente a AUTOMATIC1111, ComfyUI destaca por ser ligero, flexible, transparente y muy fácil de compartir (cada archivo de flujo es reproducible). La contrapartida es que la interfaz puede variar según el autor del workflow y, para usuarios casuales, exponer tantos detalles puede parecer excesivo.
La curva de aprendizaje se suaviza cuando entiendes el “por qué” detrás de los nodos. Piensa en ComfyUI como un tablero en el que ves el camino completo de la imagen: desde el texto y el ruido inicial en latentes, hasta la decodificación final a píxeles.
Instalación desde cero: rápido y sin dolores de cabeza
La forma más directa consiste en descargar el paquete oficial para tu sistema, descomprimir y ejecutar. No necesitas instalar Python por separado porque viene embebido, lo que reduce mucho la fricción inicial.
Pasos básicos: descarga el archivo comprimido, descomprímelo (por ejemplo, con 7-Zip) y ejecuta el lanzador que te convenga. Si no tienes GPU o tu gráfica no es compatible, usa el ejecutable para CPU; tardará más, pero funciona.
Para que todo arranque, coloca al menos un modelo en la carpeta de checkpoints. Puedes obtenerlos de repositorios como Hugging Face o Civitai y ubicarlos en la ruta de modelos de ComfyUI.
Si ya tienes una biblioteca de modelos en otras carpetas, edita el archivo de rutas extra (extra_model_paths.yaml) quitando “example” del nombre y añadiendo tus ubicaciones. Reinicia ComfyUI para que detecte los nuevos directorios.
Controles básicos y elementos de la interfaz
En el lienzo, el zoom se controla con la rueda del ratón o gesto de pellizco, y te desplazas arrastrando con el botón izquierdo. Para conectar nodos, arrastra desde el conector de salida al de entrada, y suelta para crear el borde.
ComfyUI maneja una cola de ejecución: configura tu workflow y pulsa el botón de encolado. Puedes revisar el estado desde la vista de cola para ver lo que está corriendo o lo que espera.
Atajos útiles: Ctrl+C/Ctrl+V para copiar/pegar nodos, Ctrl+Shift+V para pegar manteniendo entradas, Ctrl+Enter para encolar, Ctrl+M para silenciar un nodo. Haz clic en el punto de la esquina superior izquierda para minimizar un nodo y despejar el lienzo.
De texto a imagen: el flujo esencial
El flujo mínimo incluye cargar el checkpoint, codificar el prompt positivo y negativo con CLIP, crear una imagen latente vacía, muestrear con KSampler y decodificar a píxeles con el VAE. Pulsa el botón de encolar y obtendrás tu primera imagen.
Seleccionar el modelo en Load Checkpoint
El nodo Load Checkpoint devuelve tres componentes: MODEL (predictor de ruido), CLIP (codificador de texto) y VAE (codificador/decodificador de imágenes). MODEL va al KSampler, CLIP a los nodos de texto y el VAE al decodificador.
Prompts positivo y negativo con CLIP Text Encode
Introduce tu prompt positivo arriba y el negativo abajo; ambos se codifican como embeddings. Puedes ponderar palabras con la sintaxis (palabra:1.2) o (palabra:0.8) para reforzar o atenuar términos concretos.
Latentes vacíos y tamaños óptimos
Empty Latent Image define el lienzo en el espacio latente. Para SD 1.5 se recomienda 512×512 o 768×768; para SDXL, 1024×1024. La anchura y altura deben ser múltiplos de 8 para evitar errores y respetar la arquitectura.
VAE: del latente a píxeles
El VAE comprime imágenes a latentes y las reconstruye a píxeles. En texto a imagen, normalmente solo se usa al final para decodificar el latente. La compresión acelera el proceso pero puede introducir pequeñas pérdidas; a cambio, ofrece un control fino en el espacio latente.
KSampler y parámetros clave
El KSampler aplica difusión inversa para ir quitando ruido según la guía de los embeddings. Semilla, pasos, sampler, scheduler y denoise son los diales principales. Más pasos suelen dar más detalle, y denoise=1 reescribe completamente el ruido inicial.
Imagen a imagen: rehacer con guía
El flujo i2i parte de una imagen de entrada más tus prompts; el denoise controla cuánto se desvía del original. Con un denoise bajo, obtienes variaciones sutiles; con alto, transformaciones profundas.
Secuencia típica: selecciona el checkpoint, carga tu imagen como entrada, ajusta prompts, define denoise en KSampler y encola. Es ideal para mejorar composiciones o migrar estilos sin empezar de cero.
SDXL en ComfyUI
ComfyUI soporta SDXL de forma temprana gracias a su diseño modular. Simplemente usa un flujo compatible con SDXL, revisa los prompts y ejecuta. Recuerda: los tamaños nativos más grandes piden más VRAM y tiempo, pero el salto cualitativo en detalle lo compensa.
Inpainting: editar solo lo que te interesa
Cuando quieres modificar zonas concretas de una imagen, el inpainting es la herramienta. Carga la imagen, abre el editor de máscaras, pinta lo que quieras regenerar y guarda en el nodo correspondiente. Define tu prompt para guiar la edición y ajusta el denoise (por ejemplo, 0.6).
Si usas un modelo estándar, funciona con VAE Encode y Set Noise Latent Mask. Para modelos de inpainting dedicados, cambia esos nodos por VAE Encode (Inpaint), que está optimizado para esa tarea.
Outpainting: ampliar los bordes del lienzo
Para expandir una imagen más allá de sus límites, añade el nodo de padding para outpainting y configura cuánto crece cada lado. El parámetro de feathering suaviza la transición entre original y extensión.
En flujos de outpainting, ajusta VAE Encode (for Inpainting) y el parámetro grow_mask_by. Un valor superior a 10 suele ofrecer integraciones más naturales en la zona expandida.
Upscale en ComfyUI: píxel vs latente
Hay dos vías: upscale en píxeles (rápido, sin añadir información nueva) y upscale en latente, también llamado Hi-res Latent Fix, que reinterpreta detalles al escalar. El primero es veloz; el segundo enriquece texturas pero puede desviarse.
Upscale por algoritmo (píxel)
Con el nodo de reescalado por método puedes elegir bicubic, bilinear o nearest-exact y el factor de escala. Es ideal para previsualizaciones o cuando necesitas rapidez sin añadir coste de inferencia.
Upscale con modelo (píxel)
Usa Load Upscale Model y el nodo de upscale correspondiente, elige un modelo acorde (por ejemplo, realista o anime) y selecciona ×2 o ×4. Los modelos especializados recuperan contornos y nitidez mejor que los algoritmos clásicos.
Upscale en latente
Escalas el latente y vuelves a muestrear con KSampler para añadir detalle coherente con el prompt. Es más lento, pero especialmente útil cuando quieres ganar resolución y complejidad visual.
ControlNet: guía estructural avanzada
ControlNet permite inyectar mapas de referencia (bordes, pose, profundidad, segmentación) para dirigir la composición. Combinado con Stable Diffusion, te da un control fino sobre la estructura sin renunciar a la creatividad del modelo.
En ComfyUI, la integración es modular: cargas el mapa deseado, lo conectas al bloque ControlNet y lo enlazas con el sampler. Prueba distintos controladores para ver cuál encaja con tu estilo y objetivo.
Administrador de ComfyUI: nodos personalizados sin terminal
El Administrador permite instalar y actualizar nodos personalizados desde la interfaz. Lo encontrarás en el menú de encolado. Es la vía más simple para mantener tu ecosistema de nodos al día.
Instalar nodos faltantes
Si un workflow te avisa de nodos ausentes, abre el Administrador, pulsa instalar faltantes, reinicia ComfyUI y actualiza el navegador. Esto resuelve la mayoría de dependencias en un par de clics.
Actualizar nodos personalizados
Desde el Administrador, busca actualizaciones, instala y pulsa el botón de actualizar en cada paquete disponible. Reinicia ComfyUI para aplicar los cambios y evitar inconsistencias.
Cargar nodos en el flujo
Haz doble clic en una zona vacía para abrir el buscador de nodos y escribe el nombre del que necesitas. Así insertas rápidamente las piezas nuevas en tus diagramas.
Embeddings (inversión textual)
Los embeddings inyectan conceptos o estilos entrenados en tus prompts usando la palabra clave embedding:nombre. Coloca los archivos en la carpeta models/embeddings para que ComfyUI los detecte.
Si instalas el paquete de scripts personalizados, tendrás autocompletado: empiezas a escribir “embedding:” y verás la lista disponible. Esto acelera mucho la iteración cuando gestionas muchas plantillas.
También puedes ponderarlos, por ejemplo (embedding:Nombre:1.2) para reforzar un 20%. Ajusta el peso como harías con términos normales del prompt para equilibrar estilo y contenido.
LoRA: adapta el estilo sin tocar el VAE
Los LoRA modifican los componentes MODEL y CLIP del checkpoint, sin alterar el VAE. Sirven para inyectar estilos concretos, personajes u objetos con archivos ligeros y fáciles de compartir.
Flujo básico: selecciona tu checkpoint base, añade uno o varios LoRA y genera. Puedes apilar LoRA para combinar estéticas y efectos, ajustando sus intensidades si el workflow lo permite.
Atajos, trucos y workflows embebidos
Además de los atajos comentados, hay dos consejos muy prácticos: fija la semilla cuando ajustes nodos lejanos para evitar recomputar toda la cadena, y usa grupos para mover varios nodos a la vez. Con Ctrl+arrastre puedes seleccionar varios y con Shift mover el conjunto.
Otra función clave: ComfyUI guarda el workflow en los metadatos del PNG que genera. Arrastrando el PNG al lienzo recuperas todo el diagrama con un clic. Esto facilita compartir y reproducir resultados.
ComfyUI en línea: crear sin instalar

Si no quieres instalar nada, existen servicios en la nube con ComfyUI preconfigurado, cientos de nodos y modelos populares. Son ideales para probar SDXL, ControlNet o flujos complejos sin tocar tu PC, y muchos incluyen galerías de workflows listos.
De cero a vídeo: Wan 2.1 en ComfyUI
Algunos nodos personalizados permiten crear vídeo desde texto, transformar una imagen en una secuencia o editar un clip existente. Con modelos tipo Wan 2.1 puedes montar pipelines de texto a vídeo, imagen a vídeo y vídeo a vídeo directamente en ComfyUI.
Instala los nodos requeridos (vía Administrador o manualmente), descarga el modelo que corresponda y sigue el flujo de ejemplo: codificas el prompt y parámetros de movimiento, generas latentes por fotogramas y luego decodificas a frames o a un contenedor de vídeo. Recuerda que el coste de tiempo y VRAM crece con la resolución y la duración.
CPU vs GPU: qué rendimiento esperar
Se puede generar con CPU, pero no es lo ideal en tiempos. En pruebas reales, una CPU potente puede tardar varios minutos por imagen, mientras que con una GPU adecuada el proceso cae a segundos. Si tienes GPU compatible, úsala para acelerar drásticamente.
En CPU, reduce tamaño, pasos y complejidad de nodos; en GPU, ajusta batch y resolución según tu VRAM. Monitoriza el consumo para evitar cuellos de botella y cierres inesperados.
Nodos personalizados: instalación manual y buenas prácticas
Si prefieres el método clásico, puedes clonar repositorios en la carpeta custom_nodes con git y luego reiniciar. Esta vía te da control fino sobre versiones y ramas, útil cuando necesitas funciones específicas.
Mantén tus nodos ordenados, con actualizaciones periódicas y anotaciones sobre compatibilidades. Evita mezclar demasiadas versiones experimentales a la vez para no introducir errores difíciles de rastrear.
Solución de problemas típica
Si “instalar nodos faltantes” no te salvó el día, revisa la consola/log para el error exacto: dependencias, rutas o versiones. Comprueba que ancho y alto sean múltiplos de 8 y que los modelos estén en las carpetas correctas.
Cuando un workflow no reacciona al seleccionar modelo, forzar la carga de un checkpoint válido suele restaurar el grafo. Si un nodo se rompe tras actualizar, prueba a desactivar ese paquete o volver a una versión estable.
Semillas fijas, tamaños ajustados y prompts razonables facilitan depurar. Si el resultado se degrada tras toquetear demasiado, vuelve a un preset básico y reintroduce cambios de uno en uno.
Para ayuda adicional, comunidades como /r/StableDiffusion son muy activas y suelen resolver fallos raros. Compartir el log, capturas del grafo y versiones de nodos acelera la asistencia.
Todo lo anterior te deja con un mapa completo: sabes qué es cada nodo, cómo se conectan, dónde colocar los modelos y qué tocar para que la cola avance sin sorpresas. Con flujos de texto a imagen, i2i, SDXL, in/outpainting, upscale, ControlNet, embeddings y LoRA, más vídeo con Wan 2.1, tienes un kit de producción muy serio listo para crecer contigo. Para más información te dejamos la web oficial de ComfyUI.
ស្រលាញ់បច្ចេកវិទ្យាតាំងពីតូច។ ខ្ញុំចូលចិត្តធ្វើឱ្យទាន់សម័យនៅក្នុងវិស័យនេះ ហើយសំខាន់ជាងនេះទៅទៀតគឺការទំនាក់ទំនង។ នោះហើយជាមូលហេតុដែលខ្ញុំបានឧទ្ទិសដល់ការទំនាក់ទំនងនៅលើគេហទំព័របច្ចេកវិទ្យា និងវីដេអូហ្គេមអស់រយៈពេលជាច្រើនឆ្នាំ។ អ្នកអាចរកឃើញខ្ញុំសរសេរអំពី Android, Windows, MacOS, iOS, Nintendo ឬប្រធានបទពាក់ព័ន្ធផ្សេងទៀតដែលនឹកឃើញ។

