- Med ComfyUI kan du bygga flexibla och reproducerbara visuella flöden för stabil diffusion.
- Bemästra text-till-bild, i2i, SDXL, in/outpainting, uppskaling och ControlNet med nyckelnoder.
- Förbättra med inbäddningar, LoRA och anpassade noder; använd Manager för att hantera dem.
- Optimera prestanda och stabilitet med bästa praxis, genvägar och felsökning.
¿Den ultimata ComfyUI-guiden för nybörjare? Om du tar dina första steg med ComfyUI och känner dig överväldigad av alla noder, dosor och kablar, oroa dig inte: här hittar du en riktig guide, en som börjar från grunden och inte hoppar över något viktigt. Målet är att du ska förstå vad varje del gör, hur de passar ihop och hur man löser vanliga misstag. som är frustrerande när man försöker lära sig bara genom att experimentera.
Förutom att täcka klassiska text-till-bild, bild-till-bild, inpainting, outpainting, SDXL, uppskalning, ControlNet, inbäddningar och LoRA-arbetsflöden, kommer vi även att integrera installation, konfiguration, anpassad nodhantering med administratörenGenvägar och ett praktiskt avsnitt med verkliga prestandarekommendationer för CPU och GPU. Och ja, vi kommer också att täcka... Hur man arbetar med video med hjälp av WAN 2.1-modeller (text till video, bild till video och video till video) inom ComfyUI-ekosystemet.
Vad är ComfyUI och hur står det sig i jämförelse med andra grafiska användargränssnitt?
ComfyUI är ett nodbaserat visuellt gränssnitt byggt på Stabil diffusion vilket låter dig konfigurera arbetsflöden genom att koppla samman funktionella block. Varje nod utför en specifik uppgift (ladda modell, koda text, sampla, avkoda) och kanterna förbinder dess ingångar och utgångar, som om du satte ihop ett visuellt recept.
Jämfört med AUTOMATIC1111 utmärker sig ComfyUI genom att vara Lätt, flexibel, transparent och mycket enkel att dela (Varje arbetsflödesfil är reproducerbar). Nackdelen är att gränssnittet kan variera beroende på arbetsflödesförfattaren, och för vanliga användare, Att gå in på så mycket detaljer kan verka överdrivet..
Inlärningskurvan jämnas ut när du förstår "varför" bakom noderna. Tänk på ComfyUI som en instrumentpanel där du ser hela bildvägenfrån den initiala texten och bruset i latent form, till den slutliga avkodningen till pixlar.
Installation från grunden: snabb och problemfri
Det mest direkta sättet är att ladda ner det officiella paketet för ditt system, packa upp det och köra det. Du behöver inte installera Python separat eftersom det är inbyggt., vilket minskar den initiala friktionen avsevärt.
Grundläggande steg: Ladda ner den komprimerade filen, packa upp den (till exempel med 7-Zip) och kör startprogrammet som passar dig. Om du inte har ett grafikkort eller om ditt grafikkort inte är kompatibelt, använd den körbara filen för CPU:n.Det kommer att ta längre tid, men det fungerar.
För att komma igång, placera minst en modell i kontrollpunktsmappen. Du kan hämta dem från arkiv som Hugging Face eller Civitai. och placera dem i ComfyUI-modellsökvägen.
Om du redan har ett modellbibliotek i andra mappar, redigera extra paths-filen (extra_model_paths.yaml) genom att ta bort "example" från namnet och lägga till dina platser. Starta om ComfyUI så att den upptäcker de nya katalogerna.
Grundläggande kontroller och gränssnittselement
På arbetsytan styrs zoomen med mushjulet eller nypningsgesten, och du skrollar genom att dra med vänster knapp. För att ansluta noder, dra från utgångskontakten till ingångskontakten., och släpp för att skapa kanten.
ComfyUI hanterar en exekveringskö: konfigurera ditt arbetsflöde och tryck på köknappen. Du kan kontrollera statusen från kövyn för att se vad som körs. eller vad han/hon förväntar sig.
Användbara genvägar: Ctrl+C/Ctrl+V för att kopiera/klistra in noder, Ctrl+Shift+V för att klistra in medan poster bibehålls, Ctrl+Enter för att sätta i kö, Ctrl+M för att stänga av en nod. Klicka på pricken i det övre vänstra hörnet för att minimera en nod och rensa arbetsytan..
Från text till bild: det viktiga flödet
Minimiflödet inkluderar laddning av kontrollpunkten, kodning av den positiva och negativa prompten med CLIP, skapande av en tom latent bild, sampling med KSampler och avkodning till pixlar med VAE. Tryck på köknappen så får du din första bild.
Välj modellen i belastningskontrollpunkten
Noden Load Checkpoint returnerar tre komponenter: MODEL (brusprediktor), CLIP (textkodare) och VAE (bildkodare/avkodare). MODEL går till KSampler, CLIP till textnoderna och VAE till avkodaren..
Positiva och negativa uppmaningar med CLIP Text Encode
Ange din positiva prompt ovan och din negativa nedan; båda är kodade som inbäddningar. Du kan vikta ord med syntaxen (ord:1.2) eller (ord:0.8) att förstärka eller mildra specifika termer.
Latenta hålrum och optimala storlekar
Tom latent bild definierar arbetsytan i det latenta rummet. För SD 1.5 rekommenderas 512×512 eller 768×768; för SDXL rekommenderas 1024×1024.Bredden och höjden måste vara multiplar av 8 för att undvika fel och respektera arkitekturen.
VAE: från latent till pixlar
VAE komprimerar bilder till latenta värden och rekonstruerar dem till pixlar. Vid text-till-bild-konvertering används det vanligtvis bara i slutet för att avkoda det latenta värdet. Kompression påskyndar processen men kan medföra små förlusterI gengäld erbjuder den fin kontroll i latent utrymme.
KSampler och nyckelparametrar
KSampler tillämpar omvänd diffusion för att ta bort brus enligt inbäddningsguiden. Frö, steg, provtagare, schemaläggare och brusreducering Dessa är huvudrattarna. Fler steg ger vanligtvis mer detaljer, och denoise=1 skriver om det ursprungliga bruset helt.
Bild för bild: gör om med guide
I2i-flödet börjar med en inmatningsbild plus dina prompter; brusreduceringen styr hur mycket den avviker från originalet. Med låg brusreducering får man subtila variationer; med hög brusreducering får man djupgående transformationer..
Typisk sekvens: välj kontrollpunkten, ladda din bild som indata, justera prompter, definiera brusreducering i KSampler och sätt i kö. Den är idealisk för att förbättra kompositioner eller migrera stilar utan att börja från början..
SDXL på ComfyUI
ComfyUI erbjuder tidigt stöd för SDXL tack vare sin modulära design. Använd helt enkelt ett SDXL-kompatibelt flöde, kontrollera instruktionerna och kör det. Kom ihåg: större native storlekar kräver mer VRAM och bearbetningstid.Men det kvalitativa språnget i detalj kompenserar för det.
Inmålning: redigera bara det som intresserar dig
När du vill modifiera specifika områden i en bild är Inpainting det verktyg du ska använda. Ladda bilden, öppna maskredigeraren, måla det du vill regenerera och spara det till motsvarande nod. Definiera din prompt för att vägleda redigeringen och justera brusreduceringen (till exempel 0.6).
Om du använder en standardmodell fungerar den med VAE Encode och Set Noise Latent Mask. För dedikerade inpainting-modeller, ersätt dessa noder med VAE Encode (Inpaint), vilket är optimerat för den uppgiften.
Övermålning: förstora kanterna på duken
För att expandera en bild bortom dess gränser, lägg till utfyllnadsnoden för utmålning och konfigurera hur mycket varje sida växer. Parametern "fjädring" jämnar ut övergången mellan original och tillägg.
I outpainting-flöden, justera VAE Encode (för Inpainting) och parametern grow_mask_by. Ett värde högre än 10 erbjuder vanligtvis mer naturliga integrationer i det utökade området.
Uppskala i ComfyUI: pixel vs latent
Det finns två sätt: pixeluppskalning (snabb, utan att lägga till ny information) och latent uppskalning, även kallad Hi-res Latent Fix, som omtolkar detaljer vid skalning. Den första är snabb; den andra berikar texturer men kan avvika.
Algoritmbaserad uppskalning (pixel)
Med omskalningsnoden efter metod kan du välja bikubisk, bilinjär eller närmaste exakta och skalfaktorn. Det är perfekt för förhandsvisningar eller när du behöver hastighet. utan att lägga till inferenskostnad.
Uppskala med modell (pixel)
Använd Load Upscale Model och motsvarande uppskalade nod, välj en lämplig modell (t.ex. realistisk eller animerad) och välj ×2 eller ×4. Specialiserade modeller återställer konturer och skärpa bättre än klassiska algoritmer.
Uppskala i latent
Skala det latenta och omsampla med KSampler för att lägga till detaljer som överensstämmer med prompten. Det är långsammare, men särskilt användbart när du vill öka upplösningen och visuell komplexitet..
ControlNet: Avancerad strukturell guide
Med ControlNet kan du injicera referenskartor (kanter, pose, djup, segmentering) för att vägleda kompositionen. Kombinerat med stabil diffusion ger det dig fin kontroll över strukturen. utan att offra modellens kreativitet.
I ComfyUI är integrationen modulär: du laddar önskad karta, ansluter den till ControlNet-blocket och länkar den till samplaren. Prova olika kontroller för att se vilken som passar din stil och ditt syfte..
ComfyUI-administratör: Terminallösa anpassade noder
Med hjälp av Manager kan du installera och uppdatera anpassade noder från gränssnittet. Du hittar den i kömenyn. Det är det enklaste sättet att hålla ditt nod-ekosystem uppdaterat.
Installera saknade noder
Om ett arbetsflöde varnar dig om saknade noder, öppna Hanteraren, klicka på Installera saknas, starta om ComfyUI och uppdatera din webbläsare. Detta löser de flesta beroenden med ett par klick..
Uppdatera anpassade noder
Från hanteraren, sök efter uppdateringar, installera dem och klicka på uppdateringsknappen för varje tillgängligt paket. Starta om ComfyUI för att tillämpa ändringarna. och undvika inkonsekvenser.
Ladda noder i flödet
Dubbelklicka på ett tomt område för att öppna nodsökaren och skriv namnet på den du behöver. Så här lägger du snabbt in nya delar i dina diagram.
Inbäddningar (textinvertering)
Inbäddningar injicerar tränade koncept eller stilar i dina prompter med hjälp av nyckelordet embedding:name. Placera filerna i mappen models/embeddings så att ComfyUI kan upptäcka dem..
Om du installerar paketet med anpassade skript får du automatisk komplettering: börja skriva "embedding:" så ser du listan över tillgängliga alternativ. Detta snabbar upp iterationen avsevärt vid hantering av många mallar..
Du kan också vikta dem, till exempel (embedding:Name:1.2) för att förstärka med 20 %. Justera vikten som du skulle göra med vanliga promptvillkor att balansera stil och innehåll.
LoRA: anpassar stilen utan att röra VAE
LoRA modifierar kontrollpunktens MODEL- och CLIP-komponenter utan att ändra VAE. De används för att injicera specifika stilar, tecken eller objekt med lätta och lättdelade filer.
Grundläggande flöde: Välj din baskontrollpunkt, lägg till en eller flera LoRA:er och generera. Du kan stapla LoRA för att kombinera estetik och effekter.justera deras intensiteter om arbetsflödet tillåter det.
Genvägar, knep och inbäddade arbetsflöden
Utöver de nämnda genvägarna finns det två mycket praktiska tips: fixa fröet när du justerar avlägsna noder för att undvika att omberäkna hela kedjan, och använd grupper för att flytta flera noder samtidigt. Med Ctrl+dra kan du markera flera objekt och med Shift flytta gruppen..
En annan viktig funktion: ComfyUI sparar arbetsflödet i metadata för den PNG-fil som genereras. Om du drar PNG-filen till arbetsytan hämtas hela diagrammet med ett klick.Detta gör det enklare att dela och reproducera resultat.
ComfyUI online: skapa utan att installera

Om du inte vill installera något finns det molntjänster med förkonfigurerat ComfyUI, hundratals noder och populära modeller. De är idealiska för att testa SDXL, ControlNet eller komplexa arbetsflöden utan att behöva röra din dator., och många inkluderar gallerier med färdiga arbetsflöden.
Från grunden till video: Wan 2.1 på ComfyUI
Med vissa anpassade noder kan du skapa video från text, omvandla en bild till en sekvens eller redigera ett befintligt klipp. Med Wan 2.1-modeller kan du konfigurera text-till-video, bild-till-video och video-till-video-pipelines. direkt i ComfyUI.
Installera de nödvändiga noderna (via administratör eller manuellt), ladda ner motsvarande modell och följ exempelflödet: koda prompt- och rörelseparametrarna, generera bildrute-för-bildrute-latenser och avkoda sedan till bildrutor eller en videobehållare. Kom ihåg att kostnaden för tid och VRAM ökar med upplösning och varaktighet.
CPU vs GPU: Vilken prestanda kan man förvänta sig
Den kan genereras med en processor, men hastigheten är inte idealisk. I verkliga tester kan en kraftfull processor ta flera minuter per bild, medan processen med en lämplig grafikkort går ner till sekunder. Om du har en kompatibel GPU, använd den för att drastiskt öka prestandan..
På processorn, minska storlek, steg och nodkomplexitet; på GPU, justera batch och upplösning enligt ditt VRAM. Övervaka förbrukningen för att undvika flaskhalsar och oväntade nedläggningar.
Anpassade noder: manuell installation och bästa praxis
Om du föredrar den klassiska metoden kan du klona repositories i mappen custom_nodes med hjälp av git och sedan starta om. Den här metoden ger dig fin kontroll över versioner och grenar.användbart när du behöver specifika funktioner.
Håll dina noder organiserade med regelbundna uppdateringar och kompatibilitetsinformation. Undvik att blanda för många experimentella versioner samtidigt. för att undvika att fel uppstår som är svåra att spåra.
Typisk felsökning
Om "installera saknade noder" inte räddade dagen, kontrollera konsolen/loggen för det exakta felet: beroenden, sökvägar eller versioner. Kontrollera att bredden och höjden är multiplar av 8 och att mallarna finns i rätt mappar..
När ett arbetsflöde inte reagerar på modellval återställs grafen vanligtvis om man tvingar inläsningen av en giltig kontrollpunkt. Om en nod går sönder efter uppdateringen kan du försöka inaktivera paketet eller återgå till en stabil version..
Fasta frön, justerade storlekar och rimliga uppmaningar gör felsökning enklare. Om resultatet försämras efter för mycket justering, återgå till en grundläggande förinställning och återinför ändringarna en i taget..
För ytterligare hjälp är communities som /r/StableDiffusion mycket aktiva och löser ofta sällsynta buggar. Att dela logg, grafregistreringar och nodversioner snabbar upp supporten.
Allt ovanstående ger dig en komplett karta: du vet vad varje nod är, hur de ansluter, var modellerna ska placeras och vad du ska röra vid för att kön ska röra sig smidigt. Med text-till-bild-arbetsflöden, i2i, SDXL, in/outpainting, uppskalning, ControlNet, inbäddningar och LoRA, plus video med WAN 2.1, har du en mycket seriös produktionsutrustning. Redo att växa med dig. För mer information, se ComfyUIs officiella webbplats.
Brinner för teknik sedan han var liten. Jag älskar att vara uppdaterad inom branschen och framför allt kommunicera den. Det är därför jag har varit dedikerad till kommunikation på teknik- och videospelswebbplatser i många år nu. Du kan hitta mig som skriver om Android, Windows, MacOS, iOS, Nintendo eller något annat relaterat ämne som du tänker på.

