- ComfyUI giver dig mulighed for at opbygge fleksible og reproducerbare visuelle flows til stabil diffusion.
- Behersk tekst-til-billede, i2i, SDXL, in/outpainting, opskalering og ControlNet med nøglenoder.
- Forbedr med indlejringer, LoRA og brugerdefinerede noder; brug Manager til at administrere dem.
- Optimer ydeevne og stabilitet med bedste praksis, genveje og fejlfinding.
¿Den ultimative ComfyUI-guide til begyndere? Hvis du tager dine første skridt med ComfyUI og er overvældet af alle noder, bokse og kabler, så bare rolig: her finder du en rigtig guide, en der starter fra bunden og ikke springer noget vigtigt over. Målet er, at du forstår, hvad hver del gør, hvordan de passer sammen, og hvordan du løser almindelige fejl. der driver dig til fortvivlelse, når du prøver at lære blot ved at eksperimentere.
Udover at dække klassiske tekst-til-billede, billede-til-billede, inpainting, outpainting, SDXL, opskalering, ControlNet, indlejringer og LoRA-arbejdsgange, integrerer vi også installation, konfiguration, brugerdefineret nodeadministration med administratorenGenveje og et praktisk afsnit med reelle anbefalinger til CPU og GPU-ydeevne. Og ja, vi dækker også... Sådan arbejder du med video ved hjælp af WAN 2.1-modeller (tekst til video, billede til video og video til video) inden for ComfyUI-økosystemet.
Hvad er ComfyUI, og hvordan er det sammenlignet med andre brugergrænseflader?
ComfyUI er en nodebaseret visuel brugerflade bygget på Stabil diffusion som giver dig mulighed for at opsætte arbejdsgange ved at forbinde funktionelle blokke. Hver node udfører en specifik opgave (indlæse model, kode tekst, sample, afkode) og kanterne forbinder dens indgange og udgange, som om du var ved at sammensætte en visuel opskrift.
Sammenlignet med AUTOMATIC1111 skiller ComfyUI sig ud ved at være Let, fleksibel, gennemsigtig og meget nem at dele (Hver arbejdsgangsfil kan reproduceres). Ulempen er, at brugergrænsefladen kan variere afhængigt af arbejdsgangsforfatteren, og for almindelige brugere, At gå så meget i detaljer kan virke overdrevent..
Læringskurven udjævnes, når du forstår "hvorfor" bag noderne. Tænk på ComfyUI som et dashboard, hvor du ser den komplette billedstifra den indledende tekst og støj i latent form til den endelige afkodning til pixels.
Installation fra bunden: hurtig og problemfri
Den mest direkte måde er at downloade den officielle pakke til dit system, pakke den ud og køre den. Du behøver ikke at installere Python separat, da det er integreret., hvilket reducerer den indledende friktion betydeligt.
Grundlæggende trin: Download den komprimerede fil, pak den ud (f.eks. med 7-Zip), og kør den launcher, der passer dig. Hvis du ikke har en GPU, eller dit grafikkort ikke er kompatibelt, skal du bruge den eksekverbare CPU-fil.Det vil tage længere tid, men det virker.
For at komme i gang skal du placere mindst én model i checkpoints-mappen. Du kan få dem fra arkiver som Hugging Face eller Civitai og placer dem i ComfyUI-modelstien.
Hvis du allerede har et modelbibliotek i andre mapper, skal du redigere filen med ekstra stier (extra_model_paths.yaml) ved at fjerne "example" fra navnet og tilføje dine placeringer. Genstart ComfyUI, så den registrerer de nye mapper.
Grundlæggende kontroller og grænsefladeelementer
På lærredet styres zoom med musehjulet eller knibebevægelsen, og du ruller ved at trække med venstre knap. For at forbinde noder skal du trække fra udgangsstikket til indgangsstikket., og slip for at skabe kanten.
ComfyUI administrerer en udførelseskø: konfigurer din arbejdsgang og tryk på kø-knappen. Du kan tjekke status fra køvisningen for at se, hvad der kører. eller hvad han/hun forventer.
Nyttige genveje: Ctrl+C/Ctrl+V for at kopiere/indsætte noder, Ctrl+Shift+V for at indsætte, mens poster bevares, Ctrl+Enter for at sætte i kø, Ctrl+M for at slå lyden fra for en node. Klik på prikken i øverste venstre hjørne for at minimere en node og rydde lærredet.
Fra tekst til billede: det essentielle flow
Minimumsflowet inkluderer indlæsning af checkpointet, kodning af den positive og negative prompt med CLIP, oprettelse af et tomt latent billede, sampling med KSampler og afkodning til pixels med VAE. Tryk på køknappen, så får du dit første billede.
Vælg modellen i Load Checkpoint
Noden Load Checkpoint returnerer tre komponenter: MODEL (støjprædiktor), CLIP (tekstkoder) og VAE (billedkoder/dekoder). MODEL går til KSampler, CLIP til tekstnoderne og VAE til dekoderen..
Positive og negative prompts med CLIP Text Encode
Indtast din positive prompt ovenfor og din negative nedenfor; begge er kodet som indlejringer. Du kan vægte ord med syntaksen (ord:1.2) eller (ord:0.8) at forstærke eller blødgøre specifikke termer.
Latente hulrum og optimale størrelser
Tomt latent billede definerer lærredet i det latente rum. For SD 1.5 anbefales 512×512 eller 768×768; for SDXL anbefales 1024×1024.Bredden og højden skal være multipla af 8 for at undgå fejl og respektere arkitekturen.
VAE: fra latent til pixels
VAE komprimerer billeder til latente værdier og rekonstruerer dem til pixels. Ved tekst-til-billede-konvertering bruges det typisk kun til sidst til at afkode den latente værdi. Kompression fremskynder processen, men kan medføre små tabTil gengæld tilbyder den fin kontrol i latent rum.
KSampler og nøgleparametre
KSampler anvender omvendt diffusion til at fjerne støj i henhold til indlejringsvejledningen. Frø, trin, sampler, scheduler og støjreduktion Dette er hoveddrejeknapperne. Flere trin giver normalt flere detaljer, og denoise=1 omskriver den oprindelige støj fuldstændigt.
Billede for billede: gentag med vejledning
I2i-flowet starter med et inputbillede plus dine prompts; støjreduktionen styrer, hvor meget det afviger fra originalen. Med en lav støjdæmpning får man subtile variationer; med en høj støjdæmpning får man dybtgående transformationer..
Typisk sekvens: vælg kontrolpunktet, indlæs dit billede som input, juster prompter, definer støjreduktion i KSampler og sæt i kø. Den er ideel til at forbedre kompositioner eller migrere stilarter uden at starte fra bunden..
SDXL på ComfyUI
ComfyUI tilbyder tidlig understøttelse af SDXL takket være sit modulære design. Brug blot et SDXL-kompatibelt flow, tjek prompterne, og kør det. Husk: Større native størrelser kræver mere VRAM og behandlingstid.Men det kvalitative spring i detaljer kompenserer for det.
Inpainting: rediger kun det, der interesserer dig
Når du vil ændre bestemte områder af et billede, er inpainting det værktøj, du skal bruge. Indlæs billedet, åbn maskeeditoren, mal det, du vil regenerere, og gem det på den tilsvarende node. Definer din prompt til at guide redigeringen og justere støjreduktionen (for eksempel 0.6).
Hvis du bruger en standardmodel, fungerer den med VAE Encode og Set Noise Latent Mask. For dedikerede inpainting-modeller skal disse noder erstattes med VAE Encode (Inpaint), som er optimeret til den opgave.
Overmaling: forstørrelse af lærredets kanter
For at udvide et billede ud over dets grænser skal du tilføje padding-noden til outpainting og konfigurere, hvor meget hver side vokser. Udtyndingsparameteren udjævner overgangen mellem original og udvidelse.
I outpainting-flows skal du justere VAE Encode (til Inpainting) og parameteren grow_mask_by. En værdi højere end 10 tilbyder normalt mere naturlige integrationer i det udvidede område.
Opskaler i ComfyUI: pixel vs. latent
Der er to måder: pixelopskalering (hurtig, uden at tilføje ny information) og latent opskalering, også kaldet Hi-res Latent Fix, som genfortolker detaljer ved skalering. Den første er hurtig; den anden beriger teksturer, men kan afvige.
Algoritmebaseret opskalering (pixel)
Med reskaleringsknuden efter metode kan du vælge bikubisk, bilineær eller nærmeste-nøjagtige samt skalafaktoren. Det er ideelt til forhåndsvisninger eller når du har brug for hastighed. uden at tilføje inferensomkostninger.
Opskaler med model (pixel)
Brug Load Upscale Model og den tilsvarende opskalerende node, vælg en passende model (f.eks. realistisk eller anime), og vælg ×2 eller ×4. Specialiserede modeller gendanner konturer og skarphed bedre end klassiske algoritmer.
Opskaler i latent
Skaler det latente og resample med KSampler for at tilføje detaljer, der er i overensstemmelse med prompten. Det er langsommere, men især nyttigt, når du vil opnå opløsning og visuel kompleksitet..
ControlNet: Avanceret strukturel guide
ControlNet giver dig mulighed for at indsætte referencekort (kanter, pose, dybde, segmentering) for at styre kompositionen. Kombineret med stabil diffusion giver det dig fin kontrol over strukturen. uden at ofre modellens kreativitet.
I ComfyUI er integrationen modulær: du indlæser det ønskede kort, forbinder det til ControlNet-blokken og linker det til sampleren. Prøv forskellige controllere for at se, hvilken der passer til din stil og dit formål..
ComfyUI-administrator: Terminalløse brugerdefinerede noder
Manageren giver dig mulighed for at installere og opdatere brugerdefinerede noder fra brugergrænsefladen. Du finder den i kømenuen. Det er den enkleste måde at holde dit node-økosystem opdateret.
Installer manglende noder
Hvis en arbejdsgang advarer dig om manglende noder, skal du åbne Manager, klikke på Installer manglende noder, genstarte ComfyUI og opdatere din browser. Dette løser de fleste afhængigheder med et par klik..
Opdater brugerdefinerede noder
Fra Manager skal du søge efter opdateringer, installere dem og klikke på opdateringsknappen på hver tilgængelig pakke. Genstart ComfyUI for at anvende ændringerne. og undgå uoverensstemmelser.
Indlæs noder i flowet
Dobbeltklik på et tomt område for at åbne nodesøgeren, og skriv navnet på den, du har brug for. Sådan indsætter du hurtigt nye dele i dine diagrammer.
Indlejringer (tekstinvertering)
Integreringer indsætter trænede koncepter eller stilarter i dine prompts ved hjælp af nøgleordet embedding:name. Placer filerne i mappen models/embeddings, så ComfyUI kan registrere dem..
Hvis du installerer pakken med brugerdefinerede scripts, får du automatisk fuldførelse: start med at skrive "embedding:", og du vil se listen over tilgængelige elementer. Dette fremskynder iteration betydeligt, når man administrerer mange skabeloner..
Du kan også vægte dem, for eksempel (embedding:Name:1.2) for at forstærke med 20%. Juster vægten som du ville gøre med normale prompt-vilkår at balancere stil og indhold.
LoRA: tilpasser stilen uden at røre VAE
LoRA ændrer MODEL- og CLIP-komponenterne i checkpointet uden at ændre VAE. De bruges til at indsætte specifikke stilarter, tegn eller objekter med lette og nemme filer at dele.
Grundlæggende flow: Vælg dit basischeckpoint, tilføj en eller flere LoRA'er, og generer. Du kan stable LoRA for at kombinere æstetik og effekter.justere deres intensiteter, hvis arbejdsgangen tillader det.
Genveje, tricks og integrerede arbejdsgange
Ud over de nævnte genveje er der to meget praktiske tips: ret seed'en, når du justerer fjerne noder, for at undgå at skulle genberegne hele kæden, og brug grupper til at flytte flere noder på én gang. Med Ctrl+træk kan du markere flere elementer og flytte gruppen med Shift..
En anden vigtig funktion: ComfyUI gemmer arbejdsgangen i metadataene for den PNG, den genererer. Hvis du trækker PNG-filen over på lærredet, hentes hele diagrammet med et enkelt klik.Dette gør det nemmere at dele og reproducere resultater.
ComfyUI online: opret uden installation

Hvis du ikke vil installere noget, findes der cloud-tjenester med ComfyUI prækonfigureret, hundredvis af noder og populære modeller. De er ideelle til at teste SDXL, ControlNet eller komplekse arbejdsgange uden at røre din pc., og mange inkluderer gallerier af færdige arbejdsgange.
Fra bunden til video: Wan 2.1 i ComfyUI
Nogle brugerdefinerede noder giver dig mulighed for at oprette video fra tekst, omdanne et billede til en sekvens eller redigere et eksisterende klip. Med Wan 2.1-modeller kan du opsætte tekst-til-video, billede-til-video og video-til-video-pipelines. direkte i ComfyUI.
Installer de nødvendige noder (via administrator eller manuelt), download den tilsvarende model, og følg eksempelflowet: kod prompt- og bevægelsesparametrene, generer frame-by-frame-latenstider, og afkod derefter til frames eller en videocontainer. Husk at omkostningerne til tid og VRAM stiger med opløsning og varighed.
CPU vs. GPU: Hvilken ydeevne kan man forvente
Det kan genereres ved hjælp af en CPU, men det er ikke ideelt med hensyn til hastighed. I virkelige tests kan en kraftig CPU tage adskillige minutter pr. billede, mens processen med en passende GPU falder til sekunder. Hvis du har en kompatibel GPU, kan du bruge den til at accelerere ydeevnen drastisk..
På CPU'en skal du reducere størrelse, trin og nodekompleksitet; på GPU'en skal du justere batch og opløsning i henhold til din VRAM. Overvåg forbruget for at undgå flaskehalse og uventede lukninger.
Brugerdefinerede noder: manuel installation og bedste praksis
Hvis du foretrækker den klassiske metode, kan du klone arkiver i mappen custom_nodes ved hjælp af git og derefter genstarte. Denne metode giver dig fin kontrol over versioner og grene.nyttigt, når du har brug for specifikke funktioner.
Hold dine noder organiseret med regelmæssige opdateringer og kompatibilitetsnoter. Undgå at blande for mange eksperimentelle versioner på én gang. for at undgå at der opstår fejl, der er vanskelige at spore.
Typisk fejlfinding
Hvis "installer manglende noder" ikke reddede dagen, skal du kontrollere konsollen/loggen for den nøjagtige fejl: afhængigheder, stier eller versioner. Kontroller, at bredden og højden er multipla af 8, og at skabelonerne er i de korrekte mapper..
Når en arbejdsgang ikke reagerer på modelvalg, gendanner det normalt grafen at tvinge indlæsning af et gyldigt kontrolpunkt. Hvis en node går i stykker efter opdatering, kan du prøve at deaktivere pakken eller vende tilbage til en stabil version..
Faste frø, justerede størrelser og rimelige prompts gør fejlfinding nemmere. Hvis resultatet forringes efter for meget justering, skal du vende tilbage til en grundlæggende forudindstilling og genindføre ændringerne én ad gangen..
For yderligere hjælp er fællesskaber som /r/StableDiffusion meget aktive og løser ofte sjældne fejl. Deling af logfiler, grafoptagelser og nodeversioner fremskynder support.
Alt ovenstående giver dig et komplet kort: du ved, hvad hver node er, hvordan de forbinder, hvor modellerne skal placeres, og hvad du skal røre ved for at holde køen i gang uden problemer. Med tekst-til-billede-workflows, i2i, SDXL, in/outpainting, opskalering, ControlNet, embeddings og LoRA, plus video med WAN 2.1, har du et meget seriøst produktionskit. Klar til at vokse med dig. For mere information, se venligst ComfyUIs officielle hjemmeside.
Har været passioneret omkring teknologi siden han var lille. Jeg elsker at være up to date i sektoren og frem for alt at formidle det. Derfor har jeg været dedikeret til kommunikation på teknologi og videospils hjemmesider i mange år. Du kan finde mig skrive om Android, Windows, MacOS, iOS, Nintendo eller et hvilket som helst andet relateret emne, som du tænker på.

