ComfyUI  >  Opplæringer  >  Lås Opp Kraften i ComfyUI: En Nybegynnerguide med Praktisk Øvelse

Hei, AI-kunstnere! 👋 Velkommen til vår nybegynnervennlige tutorial om ComfyUI, et utrolig kraftig og fleksibelt verktøy for å skape fantastisk AI-generert kunstverk. 🎨 I denne guiden vil vi gå gjennom det grunnleggende i ComfyUI, utforske funksjonene, og hjelpe deg med å låse opp potensialet for å ta AI-kunsten din til neste nivå. 🚀

Vi vil dekke:

1. Hva er ComfyUI?

  • 1.1. ComfyUI vs. AUTOMATIC1111
  • 1.2. Hvor Skal Man Starte med ComfyUI?
  • 1.3. Grunnleggende Kontroller

2. ComfyUI Arbeidsflyter: Tekst-til-Bilde

  • 2.1. Velge en Modell
  • 2.2. Skriv inn Positivt Prompt og Negativt Prompt
  • 2.3. Generere et Bilde
  • 2.4. Teknisk Forklaring av ComfyUI
    • 2.4.1 Last inn Checkpoint Node
    • 2.4.2. CLIP Tekst Koding
    • 2.4.3. Tom Latent Bilde
    • 2.4.4. VAE
    • 2.4.5. KSampler

3. ComfyUI Arbeidsflyt: Bilde-til-Bilde

4. ComfyUI SDXL

5. ComfyUI Inpainting

6. ComfyUI Outpainting

7. ComfyUI Oppskalering

  • 7.1. Oppskalering av Piksler
    • 7.1.1. Oppskalering av Piksler ved Algoritme
    • 7.1.2. Oppskalering av Piksler ved Modell
  • 7.2. Oppskalering av Latent
  • 7.3. Oppskalering av Piksler vs. Oppskalering av Latent

8. ComfyUI ControlNet

9. ComfyUI Manager

  • 9.1. Hvordan Installere Manglende Egendefinerte Noder
  • 9.2. Hvordan Oppdatere Egendefinerte Noder
  • 9.3. Hvordan Laste inn Egendefinerte Noder i Din Arbeidsflyt

10. ComfyUI Embeddings

  • 10.1. Embedding med Autocomplete
  • 10.2. Embedding Vekt

11. ComfyUI LoRA

  • 11.1. Enkle LoRA Arbeidsflyter
  • 11.2. Flere LoRAs

12. Snarveier og Triks for ComfyUI

  • 12.1. Kopiere og Lime Inn
  • 12.2. Flytte Flere Noder
  • 12.3. Omgå en Node
  • 12.4. Minimere en Node
  • 12.5. Generere Bilde
  • 12.6. Embedded Arbeidsflyt
  • 12.7. Fikse Frø for å Spare Tid

13. ComfyUI Online

1. Hva er ComfyUI? 🤔

ComfyUI er som å ha en tryllestav 🪄 for å skape fantastisk, AI-generert kunst med letthet. I kjernen er ComfyUI et nodebasert grafisk brukergrensesnitt (GUI) bygget på toppen av Stable Diffusion, en toppmoderne dyp læringsmodell som genererer bilder fra tekstbeskrivelser. 🌟 Men det som gjør ComfyUI virkelig spesielt er hvordan det gir kunstnere som deg muligheten til å slippe løs kreativiteten og bringe de villeste ideene til liv.

Tenk deg et digitalt lerret der du kan konstruere dine egne unike bildegenereringsarbeidsflyter ved å koble sammen forskjellige noder, hver som representerer en spesifikk funksjon eller operasjon. 🧩 Det er som å bygge en visuell oppskrift for dine AI-genererte mesterverk!

Vil du generere et bilde fra bunnen av ved å bruke en tekstprompt? Det er en node for det! Trenger du å bruke en spesifikk sampler eller finjustere støynivået? Bare legg til de tilsvarende nodene og se magien skje. ✨

Men her er det beste: ComfyUI bryter ned arbeidsflyten i omarrangerbare elementer, noe som gir deg friheten til å lage dine egne tilpassede arbeidsflyter skreddersydd til din kunstneriske visjon. 🖼️ Det er som å ha et personlig verktøysett som tilpasser seg din kreative prosess.

1.1. ComfyUI vs. AUTOMATIC1111 🆚

AUTOMATIC1111 er standard GUI for Stable Diffusion. Så, bør du bruke ComfyUI i stedet? La oss sammenligne:

✅ Fordeler med å bruke ComfyUI:

  1. Lettvekt: Den kjører raskt og effektivt.
  2. Fleksibel: Høyt konfigurerbar for å passe dine behov.
  3. Gjennomsiktig: Dataflyten er synlig og lett å forstå.
  4. Enkel å dele: Hver fil representerer en reproducerbar arbeidsflyt.
  5. Bra for prototyping: Lag prototyper med et grafisk grensesnitt i stedet for koding.

❌ Ulemper med å bruke ComfyUI:

  1. Inkonsistent grensesnitt: Hver arbeidsflyt kan ha et annet nodeoppsett.
  2. For mye detalj: Gjennomsnittsbrukere trenger kanskje ikke å vite de underliggende forbindelsene.

1.2. Hvor Skal Man Starte med ComfyUI? 🏁

Vi tror at den beste måten å lære ComfyUI på er ved å dykke inn i eksempler og oppleve det på egen hånd. 🙌 Derfor har vi laget denne unike tutorialen som skiller seg ut fra andre. I denne tutorialen finner du en detaljert, trinn-for-trinn guide som du kan følge med på.

Men her er det beste: 🌟 Vi har integrert ComfyUI direkte i denne nettsiden! Du vil kunne interagere med ComfyUI eksempler i sanntid mens du går gjennom guiden.🌟 La oss dykke inn!

2. ComfyUI Arbeidsflyter: Tekst-til-Bilde 🖼️

La oss begynne med den enkleste saken: generere et bilde fra tekst. Klikk Queue Prompt for å kjøre arbeidsflyten. Etter en kort ventetid, bør du se ditt første genererte bilde! For å sjekke køen din, klikk bare View Queue.

Her er en standard tekst-til-bilde arbeidsflyt for deg å prøve:

Grunnleggende Byggeklosser 🕹️

ComfyUI arbeidsflyten består av to grunnleggende byggeklosser: Noder og Kanter.

  • Noder er de rektangulære blokkene, f.eks., Last inn Checkpoint, Clip Tekst Koder, osv. Hver node utfører spesifikk kode og krever input, output, og parametere.
  • Kanter er ledningene som forbinder output og input mellom nodene.

Grunnleggende Kontroller 🕹️

  • Zoom inn og ut ved å bruke musehjulet eller to-finger klyp.
  • Dra og hold input- eller output-punktet for å lage forbindelser mellom noder.
  • Beveg deg rundt i arbeidsområdet ved å holde nede venstre museknapp og dra.

La oss dykke inn i detaljene i denne arbeidsflyten.

ComfyUI arbeidsflyt: tekst til bilde

2.1. Velge en Modell 🗃️

Først, velg en Stable Diffusion Checkpoint modell i Last inn Checkpoint noden. Klikk på modellnavnet for å se tilgjengelige modeller. Hvis klikk på modellnavnet ikke gjør noe, må du kanskje laste opp en egendefinert modell.

2.2. Skriv inn Positivt Prompt og Negativt Prompt 📝

Du vil se to noder merket CLIP Tekst Koding (Prompt). Den øverste prompten er koblet til den positive inputen av KSampler noden, mens den nederste prompten er koblet til den negative inputen. Så skriv inn din positive prompt i den øverste og din negative prompt i den nederste.

CLIP Tekst Koding noden konverterer prompten til tokens og koder dem til embeddings ved hjelp av tekstkoderen.

💡 Tips: Bruk (nøkkelord:vekt) syntaks for å kontrollere vekten av et nøkkelord, f.eks., (nøkkelord:1.2) for å øke effekten eller (nøkkelord:0.8) for å redusere den.

2.3. Generere et Bilde 🎨

Klikk Queue Prompt for å kjøre arbeidsflyten. Etter en kort ventetid, vil ditt første bilde bli generert!

2.4. Teknisk Forklaring av ComfyUI 🤓

Kraften i ComfyUI ligger i dens konfigurerbarhet. Å forstå hva hver node gjør lar deg tilpasse dem til dine behov. Men før vi dykker inn i detaljene, la oss ta en titt på Stable Diffusion-prosessen for å bedre forstå hvordan ComfyUI fungerer.

Stable Diffusion-prosessen kan oppsummeres i tre hovedtrinn:

  1. Tekst Koding: Bruker-input prompten kompileres til individuelle ord-feature vektorer av en komponent kalt Tekst Koderen. Dette trinnet konverterer teksten til et format som modellen kan forstå og jobbe med.
  2. Latent Rom Transformasjon: Feature vektorene fra Tekst Koderen og et tilfeldig støybilde blir transformert til et latent rom. I dette rommet gjennomgår det tilfeldige bildet en avstøyingsprosess basert på feature vektorene, noe som resulterer i et mellomprodukt. Dette trinnet er der magien skjer, da modellen lærer å assosiere tekstfunksjonene med visuelle representasjoner.
  3. Bilde Dekoding: Til slutt blir mellomproduktet fra det latente rommet dekodet av Bilde Dekoderen, og konverterer det til et faktisk bilde som vi kan se og sette pris på.

Nå som vi har en overordnet forståelse av Stable Diffusion-prosessen, la oss dykke inn i nøkkelkomponentene og nodene i ComfyUI som gjør denne prosessen mulig.

2.4.1 Last inn Checkpoint Node 🗃️

Last inn Checkpoint noden i ComfyUI er avgjørende for å velge en Stable Diffusion modell. En Stable Diffusion modell består av tre hovedkomponenter: MODEL, CLIP, og VAE. La oss utforske hver komponent og deres forhold til de tilsvarende nodene i ComfyUI.

  1. MODEL: MODEL-komponenten er støyforutsigelsesmodellen som opererer i det latente rommet. Den er ansvarlig for kjerneprosessen med å generere bilder fra den latente representasjonen. I ComfyUI kobles MODEL-outputen fra Last inn Checkpoint noden til KSampler noden, der den omvendte diffusjonsprosessen finner sted. KSampler noden bruker MODEL til å avstøye den latente representasjonen iterativt, og gradvis forbedre bildet til det samsvarer med den ønskede prompten.
  2. CLIP: CLIP (Contrastive Language-Image Pre-training) er en språkmodell som forhåndsbehandler de positive og negative promptene gitt av brukeren. Den konverterer tekstpromptene til et format som MODEL kan forstå og bruke til å veilede bildegenereringsprosessen. I ComfyUI kobles CLIP-outputen fra Last inn Checkpoint noden til CLIP Tekst Koding noden. CLIP Tekst Koding noden tar de bruker-gitte promptene og mater dem inn i CLIP språkmodellen, og transformerer hvert ord til embeddings. Disse embeddings fanger den semantiske meningen av ordene og gjør det mulig for MODEL å generere bilder som samsvarer med de gitte promptene.
  3. VAE: VAE (Variational AutoEncoder) er ansvarlig for å konvertere bildet mellom pikselrommet og det latente rommet. Den består av en koderenhet som komprimerer bildet til en lavere-dimensjonal latent representasjon og en dekoderenhet som rekonstruerer bildet fra den latente representasjonen. I tekst-til-bilde prosessen brukes VAE bare i det siste trinnet for å konvertere det genererte bildet fra det latente rommet tilbake til pikselrommet. VAE Dekode noden i ComfyUI tar outputen fra KSampler noden (som opererer i det latente rommet) og bruker dekoderenheten av VAE til å transformere den latente representasjonen til det endelige bildet i pikselrommet.

Det er viktig å merke seg at VAE er en separat komponent fra CLIP språkmodellen. Mens CLIP fokuserer på å behandle tekstprompter, håndterer VAE konverteringen mellom piksel- og latente rom.

2.4.2. CLIP Tekst Koding 📝

CLIP Tekst Koding noden i ComfyUI er ansvarlig for å ta de bruker-gitte promptene og mate dem inn i CLIP språkmodellen. CLIP er en kraftig språkmodell som forstår den semantiske meningen av ord og kan assosiere dem med visuelle konsepter. Når en prompt er skrevet inn i CLIP Tekst Koding noden, gjennomgår den en transformasjonsprosess der hvert ord konverteres til embeddings. Disse embeddings er høy-dimensjonale vektorer som fanger den semantiske informasjonen av ordene. Ved å transformere prompter til embeddings, gjør CLIP det mulig for MODEL å generere bilder som nøyaktig reflekterer meningen og intensjonen til de gitte promptene.

2.4.3. Tom Latent Bilde 🌌

I tekst-til-bilde prosessen starter genereringen med et tilfeldig bilde i det latente rommet. Dette tilfeldige bildet fungerer som starttilstanden for MODEL å jobbe med. Størrelsen på det latente bildet er proporsjonal med den faktiske bildestørrelsen i pikselrommet. I ComfyUI kan du justere høyden og bredden på det latente bildet for å kontrollere størrelsen på det genererte bildet. I tillegg kan du sette batch-størrelsen for å bestemme antallet bilder som genereres i hver kjøring.

De optimale størrelsene for latente bilder avhenger av den spesifikke Stable Diffusion modellen som brukes. For SD v1.5 modeller anbefales størrelsene 512x512 eller 768x768, mens for SDXL modeller er den optimale størrelsen 1024x1024. ComfyUI gir et utvalg av vanlige aspektforhold å velge mellom, som 1:1 (kvadrat), 3:2 (landskap), 2:3 (portrett), 4:3 (landskap), 3:4 (portrett), 16:9 (bredskjerm), og 9:16 (vertikal). Det er viktig å merke seg at bredden og høyden på det latente bildet må være delbare med 8 for å sikre kompatibilitet med modellens arkitektur.

2.4.4. VAE 🔍

VAE (Variational AutoEncoder) er en avgjørende komponent i Stable Diffusion modellen som håndterer konverteringen av bilder mellom pikselrommet og det latente rommet. Den består av to hoveddeler: en Bildekoderenhet og en Bildekoderenhet.

Bildekoderenheten tar et bilde i pikselrommet og komprimerer det til en lavere-dimensjonal latent representasjon. Denne komprimeringsprosessen reduserer data størrelsen betydelig, noe som tillater mer effektiv prosessering og lagring. For eksempel kan et bilde på størrelse 512x512 piksler bli komprimert ned til en latent representasjon på størrelse 64x64.

På den andre siden, er Bildekoderenheten, også kjent som VAE Dekoderen, ansvarlig for å rekonstruere bildet fra den latente representasjonen tilbake til pikselrommet. Den tar den komprimerte latente representasjonen og utvider den for å generere det endelige bildet.

Å bruke en VAE gir flere fordeler:

  1. Effektivitet: Ved å komprimere bildet til et lavere-dimensjonal latent rom, muliggjør VAE raskere generering og kortere treningstider. Den reduserte datastørrelsen tillater mer effektiv prosessering og minnebruk.
  2. Latent rom manipulasjon: Det latente rommet gir en mer kompakt og meningsfull representasjon av bildet. Dette tillater mer presis kontroll og redigering av bilde detaljer og stil. Ved å manipulere den latente representasjonen, blir det mulig å endre spesifikke aspekter av det genererte bildet.

Men det er også noen ulemper å vurdere:

  1. Datatap: Under kodings- og dekodingsprosessen kan noen detaljer i det originale bildet gå tapt. Komprimerings- og rekonstruksjonstrinnene kan introdusere artefakter eller små variasjoner i det endelige bildet sammenlignet med originalen.
  2. Begrenset fangst av originaldata: Det lavere-dimensjonale latente rommet kan ikke fullt ut fange alle de intrikate funksjonene og detaljene i det originale bildet. Noe informasjon kan gå tapt under komprimeringsprosessen, noe som resulterer i en litt mindre nøyaktig representasjon av originaldataene.

Til tross for disse begrensningene, spiller VAE en viktig rolle i Stable Diffusion modellen ved å muliggjøre effektiv konvertering mellom pikselrommet og det latente rommet, og fasilitere raskere generering og mer presis kontroll over de genererte bildene.

2.4.5. KSampler ⚙️

KSampler noden i ComfyUI er hjertet av bildegenereringsprosessen i Stable Diffusion. Den er ansvarlig for å avstøye det tilfeldige bildet i det latente rommet for å samsvare med den bruker-gitte prompten. KSampler bruker en teknikk kalt omvendt diffusjon, der den iterativt forbedrer den latente representasjonen ved å fjerne støy og legge til meningsfulle detaljer basert på veiledning fra CLIP embeddings.

KSampler noden tilbyr flere parametere som lar brukere finjustere bildegenereringsprosessen:

Seed: Seed-verdien styrer den innledende støyen og komposisjonen av det endelige bildet. Ved å sette en spesifikk seed, kan brukere oppnå reproduserbare resultater og opprettholde konsistens på tvers av flere generasjoner.

Control_after_generation: Denne parameteren bestemmer hvordan seed-verdien endres etter hver generering. Den kan settes til randomize (generer en ny tilfeldig seed for hver kjøring), increment (øk seed-verdien med 1), decrement (reduser seed-verdien med 1), eller fixed (hold seed-verdien konstant).

Step: Antallet samplingstrinn bestemmer intensiteten av forbedringsprosessen. Høyere verdier resulterer i færre artefakter og mer detaljerte bilder, men øker også genereringstiden.

Sampler_name: Denne parameteren lar brukere velge den spesifikke samplingalgoritmen som brukes av KSampler. Ulike samplingalgoritmer kan gi litt forskjellige resultater og ha varierende genereringshastigheter.

Scheduler: Scheduleren styrer hvordan støynivået endres ved hvert trinn i avstøyingsprosessen. Den bestemmer hastigheten som støy fjernes fra den latente representasjonen.

Denoise: Denoise-parameteren setter mengden initial støy som skal fjernes av avstøyingsprosessen. En verdi på 1 betyr at all støy vil bli fjernet, noe som resulterer i et rent og detaljert bilde.

Ved å justere disse parameterne, kan du finjustere bildegenereringsprosessen for å oppnå ønskede resultater.

Er du klar til å begynne din ComfyUI-reise?

Hos RunComfy har vi skapt den ultimate ComfyUI online opplevelsen bare for deg. Si farvel til kompliserte installasjoner! 🎉 Prøv ComfyUI Online nå og slipp løs ditt kunstneriske potensial som aldri før! 🎉

3. ComfyUI Arbeidsflyt: Bilde-til-Bilde 🖼️

Bilde-til-Bilde arbeidsflyten genererer et bilde basert på en prompt og et input bilde. Prøv det selv!

For å bruke Bilde-til-Bilde arbeidsflyten:

  1. Velg checkpoint-modellen.
  2. Last opp bildet som en bildeprompt.
  3. Revider de positive og negative promptene.
  4. Juster eventuelt denoise (avstøyingsstyrken) i KSampler noden.
  5. Trykk Queue Prompt for å starte genereringen.
ComfyUI arbeidsflyt: bilde til bilde

For flere premium ComfyUI arbeidsflyter, besøk vår 🌟ComfyUI Arbeidsflytliste🌟

4. ComfyUI SDXL 🚀

Takket være sin ekstreme konfigurerbarhet, er ComfyUI en av de første GUI-ene som støtter Stable Diffusion XL modellen. La oss prøve det!

For å bruke ComfyUI SDXL arbeidsflyten:

  1. Revider de positive og negative promptene.
  2. Trykk Queue Prompt for å starte genereringen.

5. ComfyUI Inpainting 🎨

La oss dykke inn i noe mer komplekst: inpainting! Når du har et flott bilde, men ønsker å endre spesifikke deler, er inpainting den beste metoden. Prøv det her!

For å bruke inpainting arbeidsflyten:

  1. Last opp et bilde du vil inpaine.
  2. Høyreklikk på bildet og velg "Open in MaskEditor". Masker området som skal regenereres, og klikk deretter "Save to node". ComfyUI arbeidsflyt: inpainting
  3. Velg en Checkpoint modell:
    • Denne arbeidsflyten fungerer bare med en standard Stable Diffusion modell, ikke en Inpainting modell.
    • Hvis du vil bruke en inpainting modell, vennligst bytt "VAE Encode" og "Set Noise Latent Mask" nodene til "VAE Encode (Inpaint)" noden, som er spesifikt designet for inpainting modeller.
  4. Tilpass inpainting prosessen:
    • I CLIP Tekst Koding (Prompt) noden, kan du skrive inn tilleggsinformasjon for å veilede inpaintingen. For eksempel kan du spesifisere stil, tema, eller elementer du vil inkludere i inpainting området.
  5. Sett den opprinnelige avstøyingsstyrken (denoise), f.eks., 0.6.
  6. Trykk Queue Prompt for å utføre inpainting.
ComfyUI inpainting arbeidsflyt

6. ComfyUI Outpainting 🖌️

Outpainting er en annen spennende teknikk som lar deg utvide bildene dine utover deres opprinnelige grenser. 🌆 Det er som å ha et uendelig lerret å jobbe med!

For å bruke ComfyUI Outpainting arbeidsflyten:

  1. Begynn med et bilde du vil utvide.
  2. Bruk Pad Image for Outpainting noden til arbeidsflyten din.
  3. Konfigurer outpainting innstillingene:
    • venstre, topp, høyre, bunn: Spesifiser antall piksler som skal utvides i hver retning.
    • feathering: Juster jevnheten på overgangen mellom det originale bildet og outpainting området. Høyere verdier skaper en mer gradvis blanding, men kan introdusere en smudging effekt.
  4. Tilpass outpainting prosessen:
    • I CLIP Tekst Koding (Prompt) noden, kan du skrive inn tilleggsinformasjon for å veilede outpaintingen. For eksempel kan du spesifisere stil, tema, eller elementer du vil inkludere i det utvidede området.
    • Eksperimenter med forskjellige prompter for å oppnå ønskede resultater.
  5. Finjuster VAE Encode (for Inpainting) noden:
    • Juster grow_mask_by parameteren for å kontrollere størrelsen på outpainting masken. En verdi større enn 10 anbefales for optimale resultater.
  6. Trykk Queue Prompt for å starte outpainting prosessen.
ComfyUI outpainting arbeidsflyt

For flere premium inpainting/outpainting arbeidsflyter, besøk vår 🌟ComfyUI Arbeidsflytliste🌟

7. ComfyUI Oppskalering ⬆️

La oss utforske ComfyUI oppskalering. Vi vil introdusere tre grunnleggende arbeidsflyter for å hjelpe deg med å oppskalere effektivt.

Det er to hovedmetoder for oppskalering:

  1. Oppskalere piksler: Direkte oppskalere det synlige bildet.
    • Input: bilde, Output: oppskalert bilde
  2. Oppskalere latent: Oppskalere det usynlige latente rombildet.
    • Input: latent, Output: oppskalert latent (krever dekoding for å bli et synlig bilde)

7.1. Oppskalering av Piksler 🖼️

To måter å oppnå dette på:

  1. Ved å bruke algoritmer: Raskeste genereringshastighet, men litt dårligere resultater sammenlignet med modeller.
  2. Ved å bruke modeller: Bedre resultater, men langsommere genereringstid.

7.1.1. Oppskalering av Piksler ved Algoritme 🧮

  • Legg til Oppskaler Bilde ved node.
  • method parameter: Velg oppskaleringsalgoritmen (bicubic, bilinear, nearest-exact).
  • Scale parameter: Spesifiser oppskaleringsfaktoren (f.eks., 2 for 2x).
ComfyUI Oppskalere Piksler ved Algoritme

7.1.2. Oppskalering av Piksler ved Modell 🤖

  • Legg til Oppskaler Bilde (ved Modell) node.
  • Legg til Last inn Oppskaler Modell node.
  • Velg en modell som passer til din bildetype (f.eks., anime eller virkelighet).
  • Velg oppskaleringsfaktoren (X2 eller X4).
ComfyUI Oppskalere Piksler ved Modell

7.2. Oppskalering av Latent ⚙️

En annen oppskaleringsmetode er Oppskalering av Latent, også kjent som Hi-res Latent Fix Oppskalering, som direkte oppskalerer i det latente rommet.

ComfyUI Oppskalering av Latent

7.3. Oppskalering av Piksler vs. Oppskalering av Latent 🆚

  • Oppskalere Piksler: Bare forstørrer bildet uten å legge til ny informasjon. Raskere generering, men kan ha en smudging effekt og mangle detaljer.
  • Oppskalere Latent: I tillegg til å forstørre, endrer det noen av den opprinnelige bildeinformasjonen, og beriker detaljer. Kan avvike fra det opprinnelige bildet og har en langsommere genereringshastighet.

For flere premium gjenopprettings-/oppskaleringsarbeidsflyter, besøk vår 🌟ComfyUI Arbeidsflytliste🌟

8. ComfyUI ControlNet 🎮

Gjør deg klar til å ta AI-kunsten din til neste nivå med ControlNet, en banebrytende teknologi som revolusjonerer bildegenerering!

ControlNet er som en tryllestav 🪄 som gir deg enestående kontroll over dine AI-genererte bilder. Det fungerer hånd i hånd med kraftige modeller som Stable Diffusion, og forbedrer deres evner og lar deg veilede bildegenereringsprosessen som aldri før!

Tenk deg å kunne spesifisere kantene, menneskelige positurer, dybde, eller til og med segmenteringskartene til ditt ønskede bilde. 🌠 Med ControlNet kan du gjøre akkurat det!

Hvis du er ivrig etter å dykke dypere inn i ControlNets verden og slippe løs dets fulle potensial, har vi deg dekket. Sjekk ut vår detaljerte tutorial om å mestre ControlNet i ComfyUI! 📚 Den er full av trinn-for-trinn guider og inspirerende eksempler for å hjelpe deg med å bli en ControlNet-proff. 🏆

9. ComfyUI Manager 🛠️

ComfyUI Manager er en egendefinert node som lar deg installere og oppdatere andre egendefinerte noder gjennom ComfyUI grensesnittet. Du finner Manager-knappen på Queue Prompt-menyen.

9.1. Hvordan Installere Manglende Egendefinerte Noder 📥

Hvis en arbeidsflyt krever egendefinerte noder som du ikke har installert, følg disse trinnene:

  1. Klikk Manager i menyen.
  2. Klikk Install Missing Custom Nodes.
  3. Start ComfyUI helt på nytt.
  4. Oppdater nettleseren.

9.2. Hvordan Oppdatere Egendefinerte Noder 🔄

  1. Klikk Manager i menyen.
  2. Klikk Fetch Updates (kan ta litt tid).
  3. Klikk Install Custom Nodes.
  4. Hvis en oppdatering er tilgjengelig, vil en Update-knapp vises ved siden av den installerte egendefinerte noden.
  5. Klikk Update for å oppdatere noden.
  6. Start ComfyUI på nytt.
  7. Oppdater nettleseren.
ComfyUI Manager

9.3. Hvordan Laste inn Egendefinerte Noder i Din Arbeidsflyt 🔍

Dobbeltklikk på et hvilket som helst tomt område for å få opp en meny for å søke etter noder.

ComfyUI Manager

10. ComfyUI Embeddings 📝

Embeddings, også kjent som tekstuell inversjon, er en kraftig funksjon i ComfyUI som lar deg injisere egendefinerte konsepter eller stiler i dine AI-genererte bilder. 💡 Det er som å lære AI-en et nytt ord eller en frase og assosiere det med spesifikke visuelle egenskaper.

For å bruke embeddings i ComfyUI, skriv ganske enkelt "embedding:" etterfulgt av navnet på din embedding i den positive eller negative prompt-boksen. For eksempel:

embedding: BadDream

ComfyUI Embeddings

Når du bruker denne prompten, vil ComfyUI søke etter en embedding-fil med navnet "BadDream" i ComfyUI > models > embeddings mappen. 📂 Hvis det finner en match, vil det anvende de tilsvarende visuelle egenskapene til ditt genererte bilde.

Embeddings er en flott måte å personalisere din AI-kunst på og oppnå spesifikke stiler eller estetikk. 🎨 Du kan lage dine egne embeddings ved å trene dem på et sett med bilder som representerer det ønskede konseptet eller stilen.

10.1. Embedding med Autocomplete 🔠

Å huske de eksakte navnene på dine embeddings kan være en utfordring, spesielt hvis du har en stor samling. 😅 Det er her ComfyUI-Custom-Scripts egendefinert node kommer til unnsetning!

For å aktivere embedding navn autocomplete:

  1. Åpne ComfyUI Manager ved å klikke på "Manager" i toppmenyen.
  2. Gå til "Install Custom nodes" og søk etter "ComfyUI-Custom-Scripts".
  3. Klikk på "Install" for å legge til den egendefinerte noden til din ComfyUI-oppsett.
  4. Start ComfyUI på nytt for å anvende endringene.

Når du har installert ComfyUI-Custom-Scripts noden, vil du oppleve en mer brukervennlig måte å bruke embeddings på. 😊 Begynn ganske enkelt å skrive "embedding:" i en prompt-boks, og en liste over tilgjengelige embeddings vil vises. Du kan deretter velge ønsket embedding fra listen, og spare tid og krefter!

10.2. Embedding Vekt ⚖️

Visste du at du kan kontrollere styrken på dine embeddings? 💪 Siden embeddings i hovedsak er nøkkelord, kan du anvende vekter på dem akkurat som du ville gjort med vanlige nøkkelord i dine prompter.

For å justere vekten av en embedding, bruk følgende syntaks:

(embedding: BadDream:1.2)

I dette eksemplet økes vekten av "BadDream" embedding med 20%. Så høyere vekter (f.eks., 1.2) vil gjøre embedding mer fremtredende, mens lavere vekter (f.eks., 0.8) vil redusere dens innflytelse. 🎚️ Dette gir deg enda mer kontroll over det endelige resultatet!

11. ComfyUI LoRA 🧩

LoRA, kort for Low-rank Adaptation, er en annen spennende funksjon i ComfyUI som lar deg modifisere og finjustere dine checkpoint modeller. 🎨 Det er som å legge til en liten, spesialisert modell på toppen av din basemodell for å oppnå spesifikke stiler eller inkorporere egendefinerte elementer.

LoRA modeller er kompakte og effektive, noe som gjør dem enkle å bruke og dele. De brukes ofte til oppgaver som å modifisere den kunstneriske stilen til et bilde eller injisere en spesifikk person eller objekt i det genererte resultatet.

Når du anvender en LoRA modell på en checkpoint modell, modifiserer den MODEL og CLIP komponentene mens den lar VAE (Variational Autoencoder) være urørt. Dette betyr at LoRA fokuserer på å justere innholdet og stilen til bildet uten å endre dets overordnede struktur.

11.1. Hvordan bruke LoRA 🔧

Å bruke LoRA i ComfyUI er enkelt. La oss ta en titt på den enkleste metoden:

  1. Velg en checkpoint modell som fungerer som base for din bildegenerering.
  2. Velg en LoRA modell som du vil anvende for å modifisere stilen eller injisere spesifikke elementer.
  3. Revider de positive og negative promptene for å veilede bildegenereringsprosessen.
  4. Klikk på "Queue Prompt" for å starte genereringen av bildet med den anvendte LoRA. ▶

ComfyUI vil da kombinere checkpoint modellen og LoRA modellen for å skape et bilde som reflekterer de spesifiserte promptene og inkorporerer modifikasjonene introdusert av LoRA.

11.2. Flere LoRAs 🧩🧩

Men hva om du vil anvende flere LoRAs på et enkelt bilde? Ikke noe problem! ComfyUI lar deg bruke to eller flere LoRAs i samme tekst-til-bilde arbeidsflyt.

ComfyUI LoRA

Prosessen er lik å bruke en enkelt LoRA, men du må velge flere LoRA modeller i stedet for bare én. ComfyUI vil anvende LoRAs sekvensielt, noe som betyr at hver LoRA vil bygge på modifikasjonene introdusert av den forrige.

Dette åpner opp en verden av muligheter for å kombinere forskjellige stiler, elementer og modifikasjoner i dine AI-genererte bilder. 🌍💡 Eksperimenter med forskjellige LoRA kombinasjoner for å oppnå unike og kreative resultater!

12. Snarveier og Triks for ComfyUI ⌨️🖱️

12.1. Kopiere og Lime Inn 📋

  • Velg en node og trykk Ctrl+C for å kopiere.
  • Trykk Ctrl+V for å lime inn.
  • Trykk Ctrl+Shift+V for å lime inn med inputforbindelser intakt.

12.2. Flytte Flere Noder 🖱️

  • Lag en gruppe for å flytte et sett med noder sammen.
  • Alternativt, hold nede Ctrl og dra for å lage en boks for å velge flere noder eller hold nede Ctrl for å velge flere noder individuelt.
  • For å flytte de valgte nodene, hold nede Shift og beveg musen.

12.3. Omgå en Node 🔇

  • Deaktiver midlertidig en node ved å dempe den. Velg en node og trykk Ctrl+M.
  • Det er ingen hurtigtast for å dempe en gruppe. Velg Omgå Gruppe Node i høyreklikk-menyen eller demp den første noden i gruppen for å deaktivere den.

12.4. Minimere en Node 🔍

  • Klikk på prikken i øvre venstre hjørne av noden for å minimere den.

12.5. Generere Bilde ▶️

  • Trykk Ctrl+Enter for å sette arbeidsflyten i køen og generere bilder.

12.6. Embedded Arbeidsflyt 🖼️

  • ComfyUI lagrer hele arbeidsflyten i metadataene til PNG-filen den genererer. For å laste inn arbeidsflyten, dra og slipp bildet inn i ComfyUI.

12.7. Fikse Frø for å Spare Tid ⏰

  • ComfyUI kjører bare en node på nytt hvis inputen endres. Når du arbeider på en lang kjede av noder, spar tid ved å fikse frøet for å unngå å regenerere oppstrøms resultater.

13. ComfyUI Online 🚀

Gratulerer med å fullføre denne nybegynnerguiden til ComfyUI! 🙌 Du er nå klar til å dykke inn i den spennende verdenen av AI-kunstskaping. Men hvorfor bry seg med installasjon når du kan begynne å skape med en gang? 🤔

Hos RunComfy har vi gjort det enkelt for deg å bruke ComfyUI online uten noen oppsett. Vår ComfyUI Online-tjeneste kommer forhåndslastet med over 200 populære noder og modeller, sammen med 50+ fantastiske arbeidsflyter for å inspirere dine kreasjoner.

🌟 Enten du er en nybegynner eller en erfaren AI-kunstner, har RunComfy alt du trenger for å bringe dine kunstneriske visjoner til liv. 💡 Ikke vent lenger – prøv ComfyUI Online nå og opplev kraften i AI-kunstskaping ved dine fingertupper! 🚀

RunComfy

© Opphavsrett 2024 RunComfy. Alle Rettigheter Forbeholdt.

RunComfy er den fremste ComfyUI plattformen, som tilbyr ComfyUI online miljø og tjenester, sammen med ComfyUI arbeidsflyter med fantastiske visuelle effekter.