Hvad betyder stabil diffusion, og hvad bruges det til?

Sidste ændring: 16/05/2025
Forfatter: Daniel Terrasa

  • Stable Diffusion er en open source-model, der giver dig mulighed for at generere realistiske og kunstneriske billeder fra tekst ved hjælp af AI.
  • Der er flere måder at bruge Stable Diffusion på: online, lokalt installeret og avancerede muligheder med brugerdefinerede udvidelser og skabeloner.
  • Billedernes kvalitet afhænger i høj grad af, hvordan prompterne er skrevet, og hvordan deres interne parametre er justeret.
  • De kreative muligheder udvides yderligere med avancerede værktøjer som ControlNet, LoRA'er og redigeringsteknikker indbygget i selve platformen.
stabil diffusion

Universet af kunstig intelligens har taget et kæmpe spring fremad i de senere år, hvilket giver alle, uanset deres tekniske viden eller kunstneriske erfaring, mulighed for at skab slående billeder ud fra simple sætninger. Stabil diffusion, en af ​​de mest revolutionerende og anerkendte udviklinger inden for generativ AI, giver dig kraftfulde værktøjer lige ved hånden, både for dem, der ønsker at eksperimentere, og for design- og illustrationsprofessionelle.

I denne guide fortæller vi dig absolut alt om Stable Diffusion. Fra begynderens første skridt til avancerede prompt- og redigeringsteknikker, inklusive anbefalinger til værktøjer, skabeloner og udvidelser, der vil tage dine kreationer til det næste niveau.

Hvad er stabil diffusion, og hvorfor har det revolutioneret billeddannelse?

Stabil diffusion Det er en open source-model for kunstig intelligens, der har demokratiseret billedskabelse ved hjælp af deep learning-teknikker. Takket være det innovative design, giver dig mulighed for at konvertere en simpel tekstbeskrivelse (prompt) til fantastiske billeder, detaljeret og af høj kvalitet. Uanset hvor du er, kan du drage fordel af dens motor uden at betale noget, installere den, hvor du foretrækker, og endda opgradere den, så den passer til dine behov, hvilket adskiller den fra andre kommercielle og lukkede løsninger.

Funktionen af ​​stabil diffusion er baseret på en diffusionsmodelDet starter med tilfældig støj som et dødt TV, og gennem flere trin og justeringer, der styres af din tekst, elimineres denne støj, indtil det skaber et sammenhængende og visuelt tiltalende billede.

Denne funktion gør det til en ideelt valg for kunstnere, indholdsskabere, udviklere og hjemmebrugere som ønsker at gå ud over traditionelle billeder. Det faktum, at det er open source, åbner døren for uendelige tilpasningsmuligheder, integration med dine egne værktøjer og lokal generering, uden at være afhængig af tredjepartsservere eller månedlige gebyrer, hvis du ønsker det.

stabil diffusion

Hvad kan man gøre med stabil diffusion?

Stabile diffusionsapplikationer går ud over blot at oprette et billede ud fra tekst. AI genererer ikke bare billeder fra bunden, men er også i stand til:

  • Rediger eksisterende billeder: Du kan uploade et billede og bede det om at tilføje objekter, fjerne detaljer eller ændre stilen.
  • Overmaling: udvider kanterne af din komposition ud fra de ledetråde, du giver i prompten.
  • Udfyldning af specifikke områder (indmaling): Rediger kun en del af det billede, du vælger, f.eks. ved at rette en hånd, ændre baggrunden eller forbedre udtrykket i et ansigt.
  • Transformer billeder (img2img): Du kan bruge et rigtigt billede som reference, så Stable Diffusion kan genfortolke det i en anden stil, ændre belysningen eller farverne...
  • Kombination af kunstneriske stilarter: Den blander forskellige teknikker og referencer (for eksempel klassisk kunst, anime, fotorealisme osv.) i én prompt.
Eksklusivt indhold - Klik her  Sådan åbner du en HNS fil

dette alsidighed hvilket gør den til en ideel ledsager til digital kreativitet, illustration, grafisk design og endda generering af ressourcer til videospil, marketingkampagner eller blot at have det sjovt med at udforske grænserne for AI.

Hvordan fungerer stabil diffusion indvendigt?

Stabil diffusion opstår fra træning af millioner af billeder med billedtekster takket være store datasæt (som f.eks. LAION-5B), hvor AI lærer at forbinde tekstlige begreber med visuelle mønstre. Modellen bruger det, der kaldes diffusionsmodel: ødelægger først et billede ved at omdanne det til støj, og lærer derefter at rekonstruere det fra bunden baseret på den tekst, brugeren indtaster.

Ved hvert trin forfiner modellen billedet, reducere støj og øge detaljeniveauet, indtil resultatet kommer tæt på den scene, vi har beskrevet. Derudover giver Stable Diffusion dig mulighed for at modulere "vægten" af bestemte ord for at prioritere (eller dæmpe) specifikke elementer i scenen, manipulere stilarter og undgå uønskede resultater.

La projektets konstante udvikling og dets åbenhed over for kode har muliggjort fremkomsten af ​​utallige varianter og forbedringer fra fællesskabet, såsom nye modeller, stilarter og teknikker til at opnå langt mere realistiske eller specifikke resultater.

Stabil Diffusion-7 guide

Hvilke fordele tilbyder Stable Diffusion i forhold til andre værktøjer?

Den væsentligste forskel ved stabil diffusion er dens frie og open source-natur. I modsætning til andre modeller som MidJourney eller DALL-E, kan du køre det på din egen computer, installere det på servere, prøve nye ting og ændre det efter din smag. Andre bemærkelsesværdige fordele inkluderer:

  • Gratis (undtagen på premium-platforme)Du kan bruge de fleste webtjenester og lokal installation gratis, medmindre du vælger premium-servere eller ønsker adgang til meget specifikke avancerede funktioner.
  • Privacy: Du kan oprette billeder uden at forlade dit system, hvilket undgår problemer med cloud-data eller langsomme forbindelser.
  • Modularitet og tilpasning: understøtter uendelige brugerdefinerede modeller, stilarter, udvidelser og ressourcer udviklet af fællesskabet.
  • Kvalitet og detaljer: Den seneste generation af modeller (SDXL, Juggernaut, Realistic Vision osv.) konkurrerer med og overgår ofte betalt billedproduktion.

I lyset af dette skal der også påpeges nogle svagheder eller udestående problemer. Frem for alt skal det bemærkes, at stabil diffusion præsenterer en stejlere læringskurve end andre løsninger kommercielle. 

Introduktion: Sådan installeres og konfigureres stabil diffusion lokalt

Det er nemmere end det ser ud til at installere Stable Diffusion på din computer, især med den populære brugerflade. Automatisk 1111, hvilket har forenklet processen så meget som muligt for Windows.

  1. Gå til det officielle arkiv for Automatisk 1111 på GitHub, søg efter afsnittet "aktiver" og download installationsprogrammet (.exe).
  2. Kør den downloadede fil. Installationsprocessen kan tage lidt tid afhængigt af din computers hastighed.
  3. Når du er færdig, vil du have en genvej kaldet "A1111 WebUI" på dit skrivebord eller i en destinationsmappe. Dobbeltklik åbner den grafiske brugerflade i din browser, så du er klar til at begynde at oprette.
  4. Vi anbefaler at aktivere automatiske opdateringer til brugerfladen og udvidelserne, samt indstillingen "lav VRAM", hvis din computer ikke er særlig kraftfuld.
Eksklusivt indhold - Klik her  Hulkort Historie af computeren

Hvis du bruger Mac eller Linux, er der specifikke vejledninger til installation af Stable Diffusion fra deres open source-arkiver.

Sådan skriver du effektive prompts i Stable Diffusion: struktur, syntaks og tips

Dine billeders succes afhænger næsten udelukkende af prompten. En god struktur giver dig mulighed for at opnå professionelle resultater og meget anderledes end dem, der genereres med vage beskrivelser.

En anbefalet prompt bør angive:

  • Billedtype: fotografi, tegning, illustration, 3D-rendering osv.
  • Emne: Hvem der optræder på billedet (person, dyr, genstand…), med alle de ønskede detaljer (alder, etnicitet, udtryk osv.)
  • handling: hvad laver den fyr?
  • Kontekst/scenarie: hvor scenen finder sted, belysning, årstid, dominerende farver osv.
  • Modifikatorer: Malestil, objektiv og kamera, tidspunkt på dagen, farvepalet, referencekunstnere, opløsning, kvalitet, specialeffekter såsom bokeh, sløring, teksturering...

til negative prompts, tilføj blot alle de funktioner, du IKKE ønsker i billedet: "slørede, grimme, deformerede hænder, for mange fingre, tekst, vandmærker, lav opløsning, forkerte proportioner, morbid, duplikater..." og alt andet, der generer dig i resultatet.

stabil diffusion

Hvordan forbedrer man prompts i Stable Diffusion?

For at opnå de bedste resultater, følg disse tips. Det er tilrådeligt at justere vægtene og programmeringen korrekt. Stabil diffusion giver dig mulighed for at give bestemte ord mere eller mindre betydning ved hjælp af syntaks "ord:faktor". Jo højere word:factor-en er, desto mere relevant vil udtrykket være; Du kan bruge yderligere parenteser til yderligere at øge vægten af ​​et ord eller et begreb.

Derudover giver syntaksdrevet promptprogrammering dig mulighed for at kombinere ideer eller stilarter i et enkelt billede, så overgangen fra ét koncept til et andet følger de trin, du definerer.

Hvis du sidder fast eller leder efter hurtig inspiration, kan du på platforme som Lexica, Civitai eller Stable Diffusions egen PNG Info-fane trække AI-genererede billeder og se den præcise prompt, der blev brugt til at oprette dem.

De bedste stabile diffusionsmodeller til hyperrealistiske og kunstneriske billeder

Det stabile diffusionsunivers er meget bredere end dets grundlæggende modeller. Der findes i øjeblikket et væld af brugerdefinerede modeller (checkpoints) tilpasset specifikke stilarter, såsom fotorealisme, anime, teknisk illustration osv. Nogle af de mest anbefalede og populære er:

Modeller til SD 1.5:

  • Juggernaut Rborn: Specialist i realistisk hud, differentierede baggrunde og naturlige farver. Varme resultater i RAW-stil.
  • Realistisk vision v5.1: Stor beherskelse af portrætter, følelser og ansigtsdetaljer. Meget balanceret i baggrunde og motiver.
  • Jeg kan ikke tro, at det ikke er fotografi: Alsidig, fremragende i belysning og vinkler. Ideel til portrætter og forskellige temaer.
  • Foton V1: Balance mellem kvalitet og alsidighed, især for menneskelige temaer.
  • Realistisk stockfoto: Meget polerede billeder i katalogstil uden hudpletter.
  • aZovya Photoreal: Ikke så kendt, men giver fremragende resultater og kan bruges til at flette teknikker sammen med andre modeller.
Eksklusivt indhold - Klik her  HDAT2: test og reparer en harddisk

Modeller til SDXL (nyeste generation):

  • Juggernaut XL (x): Filmisk komposition, fremragende i portrætter og forståelse af lange prompts.
  • RealVisXL: Uovertruffen i at skabe realistiske ufuldkommenheder, teksturer og toneændringer i huden.
  • HelloWorld XL v6.0: Den bringer en analog tilgang, gode kropsproportioner og vintage æstetik. Brug GPT4v-tagging til mere avancerede prompts.
  • Hæderlige omtaler: PhotoPedia XL, Realism Engine SDXL, Fully Real XL (mindre aktuel, men stadig gyldig).

Alle disse modeller kan downloades gratis fra arkiver som f.eks. Civitai, og placer dem blot i den relevante mappe, så de vises i Stable Diffusion-grænsefladen.

stabil diffusion

Sådan installerer og administrerer du brugerdefinerede modeller i Stable Diffusion

Det er så simpelt at downloade en ny skabelon:

  1. Få adgang til arkiver som Civitai, og filtrer efter "Kontrolpunkter".
  2. Vælg den model, du ønsker (sørg for, at den har filtypen .safetensor for ekstra sikkerhed).
  3. Download filen, og kopier den til stien /stable-diffusion-webui/models/Stable-diffusion.
  4. Genstart brugerfladen, og vælg modellen fra panelet "Checkpoint".

Professionelle tips til at opnå virkelig fantastiske billeder med stabil diffusion

At mestre stabil diffusion involverer at eksperimentere, lære af resultaterne og finpudse din teknik og fantasi:

  • Leg med indlejringer: For at finjustere æstetikken i dine billeder kan du prøve indlejringer anbefalet af modelskaberne (f.eks. BadDream, UnrealisticDream, FastNegativeV2, JuggernautNegative-neg). Integreringer giver dig mulighed for at justere funktioner som hænder, øjne osv.
  • Brug ansigtsdetalje-extensions: Adetailer-udvidelsen til A1111 eller Face Detailer Pipe-noden i ComfyUI hjælper dig med at opnå fejlfrie resultater på ansigter og hænder, især nyttigt til realistiske portrætter.
  • ControlNets for perfektionister: Hvis du er krævende med hænder, positurer eller kroppe, kan du udforske de forskellige typer ControlNet for at finjustere dine kompositioner.
  • Prøve og fejl: Forvent ikke, at det første billede er perfekt; Nøglen er at iterere, ændre prompts og justere negativer, indtil den ønskede kvalitet er opnået.
  • Vær opmærksom på promptens struktur: Undgå modsætninger (for eksempel "langt hår" og "kort hår" i samme sætning) og prioritér begreber i begyndelsen, som vil have mere vægt i det endelige billede.

Efter denne rundvisning i mulighederne ved stabil diffusion er det tydeligt, at kunstig intelligens revolutionerer den måde, vi skaber på, eksperimenter og transformer billeder med stadigt mere overraskende, professionelle og naturlige resultater. Hvis du er interesseret i digital kreativitet, er der intet bedre tidspunkt at udforske verdenen af ​​AI-visuel generering: med en god prompt, det rigtige værktøj og lidt øvelse kan alle bringe de billeder, de forestiller sig, til live, fra simple skitser til hyperrealistiske kompositioner, der ikke kan skelnes fra professionel fotografering.