- O ComfyUI permite criar fluxos visuais flexíveis e reproduzíveis para o Stable Diffusion.
- Domine as funções de texto para imagem, i2i, SDXL, in/outpainting, upscale e ControlNet com nós essenciais.
- Aprimore com incorporações, LoRa e nós personalizados; use o Gerenciador para administrá-los.
- Otimize o desempenho e a estabilidade com as melhores práticas, atalhos e soluções de problemas.
¿O guia definitivo do ComfyUI para iniciantes? Se você está dando seus primeiros passos com o ComfyUI e se sente sobrecarregado por todos os nós, caixas e cabos, não se preocupe: aqui você encontrará um guia completo, que começa do zero e não omite nada importante. O objetivo é que você entenda a função de cada peça, como elas se encaixam e como solucionar erros comuns. que são frustrantes quando você tenta aprender apenas experimentando.
Além de abordar os fluxos de trabalho clássicos de texto para imagem, imagem para imagem, preenchimento de lacunas, preenchimento de lacunas, SDXL, ampliação de escala, ControlNet, incorporações e LoRa, também integraremos instalação, configuração, Gerenciamento personalizado de nós com o AdministradorAtalhos e uma seção prática com recomendações reais de desempenho para CPU e GPU. E sim, também abordaremos... Como trabalhar com vídeo usando modelos do tipo WAN 2.1 (texto para vídeo, imagem para vídeo e vídeo para vídeo) dentro do ecossistema ComfyUI.
O que é o ComfyUI e como ele se compara a outras interfaces gráficas?
ComfyUI é uma interface visual baseada em nós, construída sobre Difusão estável que permite configurar fluxos de trabalho conectando blocos funcionais. Cada nó executa uma tarefa específica (carregar modelo, codificar texto, amostrar, decodificar). e as bordas conectam suas entradas e saídas, como se você estivesse montando uma receita visual.
Em comparação com o AUTOMATIC1111, o ComfyUI se destaca por ser Leve, flexível, transparente e muito fácil de compartilhar. (Cada arquivo de fluxo de trabalho é reproduzível). A desvantagem é que a interface pode variar dependendo do autor do fluxo de trabalho e, para usuários ocasionais, Entrar em tantos detalhes pode parecer excessivo..
A curva de aprendizado se torna mais suave quando você entende o "porquê" por trás dos nós. Imagine o ComfyUI como um painel onde você vê o caminho completo da imagem.: desde o texto inicial e o ruído em forma latente, até a decodificação final em pixels.
Instalação do zero: rápida e sem complicações.
A maneira mais direta é baixar o pacote oficial para o seu sistema, descompactá-lo e executá-lo. Você não precisa instalar o Python separadamente, pois ele já vem integrado., o que reduz bastante o atrito inicial.
Passos básicos: Baixe o arquivo compactado, descompacte-o (por exemplo, com o 7-Zip) e execute o programa de inicialização de sua preferência. Se você não possui uma GPU ou sua placa de vídeo não é compatível, utilize o executável da CPU.Vai demorar mais, mas funciona.
Para começar, coloque pelo menos um modelo na pasta de pontos de verificação. Você pode obtê-los em repositórios como Hugging Face ou Civitai. e coloque-os no caminho do modelo ComfyUI.
Se você já possui uma biblioteca de modelos em outras pastas, edite o arquivo de caminhos extras (extra_model_paths.yaml) removendo "example" do nome e adicionando os locais desejados. Reinicie o ComfyUI para que ele detecte os novos diretórios..
Controles básicos e elementos de interface
Na tela, o zoom é controlado com a roda do mouse ou com o gesto de pinça, e a rolagem é feita arrastando o mouse com o botão esquerdo. Para conectar os nós, arraste do conector de saída para o conector de entrada.e solte para criar a borda.
O ComfyUI gerencia uma fila de execução: configure seu fluxo de trabalho e pressione o botão da fila. Você pode verificar o status na visualização da fila para ver o que está em execução. ou o que ele/ela espera.
Atalhos úteis: Ctrl+C/Ctrl+V para copiar/colar nós, Ctrl+Shift+V para colar mantendo as entradas, Ctrl+Enter para enfileirar, Ctrl+M para silenciar um nó. Clique no ponto no canto superior esquerdo para minimizar um nó e limpar a tela..
Do texto à imagem: o fluxo essencial
O fluxo mínimo inclui carregar o ponto de verificação, codificar o prompt positivo e negativo com CLIP, criar uma imagem latente vazia, amostrar com KSampler e decodificar para pixels com VAE. Pressione o botão da fila e você verá sua primeira imagem..
Selecione o modelo em Ponto de Verificação de Carregamento
O nó Load Checkpoint retorna três componentes: MODEL (preditor de ruído), CLIP (codificador de texto) e VAE (codificador/decodificador de imagem). O MODEL vai para o KSampler, o CLIP para os nós de texto e o VAE para o decodificador..
Dicas positivas e negativas com codificação de texto CLIP
Insira sua afirmação positiva acima e sua afirmação negativa abaixo; ambas estão codificadas como embeddings. Você pode ponderar palavras com a sintaxe (palavra:1.2) ou (palavra:0.8) Para reforçar ou suavizar termos específicos.
Vazios latentes e tamanhos ideais
A Imagem Latente Vazia define a tela no espaço latente. Para SD 1.5, recomenda-se 512×512 ou 768×768; para SDXL, 1024×1024.A largura e a altura devem ser múltiplos de 8 para evitar erros e respeitar a arquitetura.
VAE: do latente aos pixels
O VAE comprime imagens em valores latentes e as reconstrói em pixels. Na conversão de texto em imagem, ele geralmente é usado apenas na etapa final para decodificar o valor latente. A compressão acelera o processo, mas pode introduzir pequenas perdas.Em contrapartida, oferece um controle preciso no espaço latente.
KSampler e parâmetros principais
O KSampler aplica difusão reversa para remover ruído de acordo com o guia de incorporação. Semente, etapas, amostrador, agendador e denoise Esses são os controles principais. Mais níveis geralmente fornecem mais detalhes, e denoise=1 reescreve completamente o ruído inicial.
Imagem por imagem: refazer com guia
O fluxo i2i começa com uma imagem de entrada mais suas instruções; o controle de redução de ruído determina o quanto ela se desvia da original. Com uma redução de ruído baixa, você obtém variações sutis; com uma alta, transformações profundas..
Sequência típica: selecione o ponto de verificação, carregue sua imagem como entrada, ajuste as instruções, defina a redução de ruído no KSampler e enfileire. É ideal para aprimorar composições ou migrar estilos sem precisar começar do zero..
SDXL no ComfyUI
O ComfyUI oferece suporte antecipado ao SDXL graças ao seu design modular. Basta usar um fluxo compatível com SDXL, verificar as instruções e executá-lo. Lembre-se: tamanhos nativos maiores exigem mais VRAM e tempo de processamento.Mas o salto qualitativo nos detalhes compensa isso.
Inpainting: edite apenas o que lhe interessa.
Quando você deseja modificar áreas específicas de uma imagem, o preenchimento (inpainting) é a ferramenta ideal. Carregue a imagem, abra o editor de máscaras, pinte o que deseja regenerar e salve no nó correspondente. Defina o seu comando para orientar a edição e ajuste a redução de ruído (por exemplo, 0.6)..
Se você usar um modelo padrão, ele funciona com VAE Encode e Set Noise Latent Mask. Para modelos dedicados à interpolação de cores, substitua esses nós por VAE Encode (Inpaint)., que é otimizado para essa tarefa.
Pintura de contorno: ampliação das bordas da tela
Para expandir uma imagem além de seus limites, adicione o nó de preenchimento para pintura de contorno e configure o quanto cada lado cresce. O parâmetro de suavização suaviza a transição entre o original e a extensão..
Em fluxos de outpainting, ajuste o VAE Encode (para Inpainting) e o parâmetro grow_mask_by. Um valor superior a 10 geralmente oferece integrações mais naturais. na área expandida.
Aprimoramento na ComfyUI: pixel vs. latente
Existem duas maneiras: ampliação de pixels (rápida, sem adicionar novas informações) e ampliação latente, também chamada de Correção Latente de Alta Resolução, que reinterpreta os detalhes ao ampliar. O primeiro é rápido; o segundo enriquece as texturas, mas pode apresentar desvios..
Ampliação baseada em algoritmo (pixel)
Com o nó de redimensionamento por método, você pode escolher bicúbico, bilinear ou mais próximo exato, além do fator de escala. É ideal para pré-visualizações ou quando você precisa de velocidade. sem adicionar custo de inferência.
Ampliar com modelo (pixel)
Use a opção "Carregar Modelo de Aumento de Escala" e o nó de aumento de escala correspondente, escolha um modelo adequado (por exemplo, realista ou anime) e selecione ×2 ou ×4. Modelos especializados recuperam contornos e nitidez melhor do que algoritmos clássicos..
Aumento de escala em latente
Ajuste a escala da variável latente e realize uma nova amostragem com KSampler para adicionar detalhes consistentes com o enunciado. É mais lento, mas especialmente útil quando se deseja obter maior resolução e complexidade visual..
ControlNet: Guia Estrutural Avançado
O ControlNet permite inserir mapas de referência (arestas, pose, profundidade, segmentação) para orientar a composição. Combinado com a Difusão Estável, oferece um controle preciso sobre a estrutura. sem sacrificar a criatividade do modelo.
No ComfyUI, a integração é modular: você carrega o mapa desejado, conecta-o ao bloco ControlNet e o vincula ao sampler. Experimente diferentes controladores para ver qual se adapta melhor ao seu estilo e necessidade..
Administrador do ComfyUI: Nós personalizados sem terminal
O Gerenciador permite instalar e atualizar nós personalizados a partir da interface. Você o encontrará no menu de filas. É a maneira mais simples de manter seu ecossistema de nós atualizado..
Instalar nós ausentes
Se um fluxo de trabalho alertá-lo sobre nós ausentes, abra o Gerenciador, clique em Instalar Ausentes, reinicie o ComfyUI e atualize seu navegador. Isso resolve a maioria das dependências com apenas alguns cliques..
Atualizar nós personalizados
No Gerenciador, verifique se há atualizações, instale-as e clique no botão de atualização em cada pacote disponível. Reinicie o ComfyUI para aplicar as alterações. e evitar inconsistências.
Carregar nós no fluxo
Dê um duplo clique em uma área vazia para abrir o localizador de nós e digite o nome do nó desejado. É assim que você insere rapidamente novas peças em seus diagramas..
Incorporações (inversão de texto)
Os embeddings injetam conceitos ou estilos predefinidos em seus prompts usando a palavra-chave embedding:nome. Coloque os arquivos na pasta models/embeddings para que o ComfyUI possa detectá-los..
Se você instalar o pacote de scripts personalizados, terá o recurso de autocompletar: comece a digitar "embedding:" e você verá a lista disponível. Isso acelera bastante a iteração ao gerenciar muitos modelos..
Você também pode ponderá-los, por exemplo (embedding:Name:1.2) para reforçar em 20%. Ajuste o peso como faria com termos de prompt normais. Equilibrar estilo e conteúdo.
LoRa: adapta o estilo sem alterar o VAE.
O LoRA modifica os componentes MODEL e CLIP do ponto de verificação, sem alterar o VAE. Eles são usados para injetar estilos, caracteres ou objetos específicos. Com arquivos leves e fáceis de compartilhar.
Fluxo básico: Selecione seu ponto de verificação base, adicione um ou mais LoRAs e gere. Você pode usar o LoRA em conjunto para combinar estética e efeitos.Ajustando suas intensidades, se o fluxo de trabalho permitir.
Atalhos, truques e fluxos de trabalho integrados
Além dos atalhos mencionados, existem duas dicas muito práticas: fixe a semente ao ajustar nós distantes para evitar recalcular toda a cadeia e use grupos para mover vários nós de uma só vez. Com Ctrl+arrastar, você pode selecionar vários itens e, com Shift, mover o grupo..
Outra funcionalidade importante: o ComfyUI salva o fluxo de trabalho nos metadados do PNG que gera. Arrastar o PNG para a tela recupera o diagrama inteiro com um clique.Isso facilita o compartilhamento e a reprodução dos resultados.
ComfyUI online: crie sem instalar

Se você não quiser instalar nada, existem serviços em nuvem com o ComfyUI pré-configurado, centenas de nós e modelos populares. São ideais para testar SDXL, ControlNet ou fluxos de trabalho complexos sem precisar acessar o seu computador.E muitas incluem galerias de fluxos de trabalho prontos para uso.
Do zero ao vídeo: Wan 2.1 em ComfyUI
Alguns nós personalizados permitem criar vídeos a partir de texto, transformar uma imagem em uma sequência ou editar um clipe existente. Com os modelos do tipo WAN 2.1, você pode configurar fluxos de trabalho de texto para vídeo, imagem para vídeo e vídeo para vídeo. diretamente no ComfyUI.
Instale os nós necessários (via Administrador ou manualmente), baixe o modelo correspondente e siga o fluxo de exemplo: codifique os parâmetros de comando e movimento, gere as latências quadro a quadro e, em seguida, decodifique para quadros ou um contêiner de vídeo. Lembre-se de que o custo de tempo e VRAM aumenta com a resolução e a duração..
CPU vs GPU: Que desempenho esperar?
É possível gerar imagens usando uma CPU, mas não é o ideal em termos de velocidade. Em testes práticos, uma CPU potente pode levar vários minutos por imagem, enquanto com uma GPU adequada o processo cai para segundos. Se você tiver uma placa de vídeo compatível, use-a para acelerar drasticamente o desempenho..
Na CPU, reduza o tamanho, as etapas e a complexidade do nó; na GPU, ajuste o lote e a resolução de acordo com a sua VRAM. Monitore o consumo para evitar gargalos e fechamentos inesperados..
Nós personalizados: instalação manual e melhores práticas
Se preferir o método clássico, você pode clonar os repositórios na pasta custom_nodes usando o git e, em seguida, reiniciar. Este método oferece um controle preciso sobre versões e ramificações.Útil quando você precisa de funções específicas.
Mantenha seus nós organizados, com atualizações regulares e notas de compatibilidade. Evite misturar muitas versões experimentais ao mesmo tempo. para evitar a introdução de erros difíceis de rastrear.
Solução de problemas típica
Se a opção "instalar nós ausentes" não resolver o problema, verifique o console/log para obter o erro exato: dependências, caminhos ou versões. Verifique se a largura e a altura são múltiplos de 8 e se os modelos estão nas pastas corretas..
Quando um fluxo de trabalho não reage à seleção do modelo, forçar o carregamento de um ponto de verificação válido geralmente restaura o grafo. Se um nó apresentar problemas após a atualização, tente desativar o pacote ou reverter para uma versão estável..
Sementes fixas, tamanhos ajustados e instruções claras facilitam a depuração. Se o resultado piorar após muitas alterações, volte a uma configuração básica e reintroduza as mudanças uma de cada vez..
Para obter ajuda adicional, comunidades como /r/StableDiffusion são muito ativas e frequentemente resolvem bugs raros. Compartilhar os registros, capturas de gráficos e versões dos nós agiliza o suporte..
Tudo isso lhe dá um mapa completo: você sabe o que cada nó representa, como eles se conectam, onde posicionar os modelos e o que precisa ser alterado para manter a fila funcionando sem problemas. Com fluxos de trabalho de texto para imagem, i2i, SDXL, in/outpainting, upscaling, ControlNet, embeddings e LoRa, além de vídeo com WAN 2.1, você tem um kit de produção muito robusto. Prontos para crescer com você. Para mais informações, consulte o Site oficial do ComfyUI.
Apaixonado por tecnologia desde pequeno. Adoro estar atualizado no setor e, acima de tudo, comunicá-lo. É por isso que há muitos anos me dedico à comunicação em sites de tecnologia e videogames. Você pode me encontrar escrevendo sobre Android, Windows, MacOS, iOS, Nintendo ou qualquer outro tópico relacionado que lhe vier à mente.

