ComfyUI  >  Tutorials  >  Lås Op for Kraften i ComfyUI: En Begyndervejledning med Praktisk Øvelse

Hej, AI-kunstnere! 👋 Velkommen til vores begynder-venlige tutorial om ComfyUI, et utroligt kraftfuldt og fleksibelt værktøj til at skabe fantastiske AI-genererede kunstværker. 🎨 I denne guide vil vi gennemgå grundlæggende i ComfyUI, udforske dets funktioner og hjælpe dig med at låse op for dets potentiale til at tage din AI-kunst til næste niveau. 🚀

Vi vil dække:

1. Hvad er ComfyUI?

  • 1.1. ComfyUI vs. AUTOMATIC1111
  • 1.2. Hvor skal man starte med ComfyUI?
  • 1.3. Grundlæggende Kontroller

2. ComfyUI Arbejdsgange: Tekst-til-Billede

  • 2.1. Valg af Model
  • 2.2. Indtastning af Positivt Prompt og Negativt Prompt
  • 2.3. Generering af et Billede
  • 2.4. Teknisk Forklaring af ComfyUI
    • 2.4.1 Indlæs Checkpoint Node
    • 2.4.2. CLIP Tekst Encode
    • 2.4.3. Tom Latent Billede
    • 2.4.4. VAE
    • 2.4.5. KSampler

3. ComfyUI Arbejdsgang: Billede-til-Billede

4. ComfyUI SDXL

5. ComfyUI Inpainting

6. ComfyUI Outpainting

7. ComfyUI Opskalering

  • 7.1. Opskalering af Pixel
    • 7.1.1. Opskalering af Pixel ved Algoritme
    • 7.1.2. Opskalering af Pixel ved Model
  • 7.2. Opskalering af Latent
  • 7.3. Opskalering af Pixel vs. Opskalering af Latent

8. ComfyUI ControlNet

9. ComfyUI Manager

  • 9.1. Hvordan man Installere Manglende Custom Nodes
  • 9.2. Hvordan man Opdaterer Custom Nodes
  • 9.3. Hvordan man Indlæser Custom Nodes i Din Arbejdsgang

10. ComfyUI Embeddings

  • 10.1. Embedding med Autocomplete
  • 10.2. Embedding Vægt

11. ComfyUI LoRA

  • 11.1. Simple LoRA Arbejdsgange
  • 11.2. Flere LoRAs

12. Genveje og Tricks til ComfyUI

  • 12.1. Kopier og Indsæt
  • 12.2. Flytning af Flere Noder
  • 12.3. Omgå en Node
  • 12.4. Minimer en Node
  • 12.5. Generer Billede
  • 12.6. Indlejret Arbejdsgang
  • 12.7. Fikser Frø for at Spare Tid

13. ComfyUI Online

1. Hvad er ComfyUI? 🤔

ComfyUI er som at have en tryllestav 🪄 til at skabe fantastiske, AI-genererede kunstværker med lethed. I sin kerne er ComfyUI en node-baseret grafisk brugergrænseflade (GUI) bygget oven på Stable Diffusion, en topmoderne dyb læringsmodel, der genererer billeder fra tekstbeskrivelser. 🌟 Men det, der gør ComfyUI virkelig speciel, er, hvordan det giver kunstnere som dig mulighed for at frigøre din kreativitet og bringe dine vildeste ideer til live.

Forestil dig et digitalt lærred, hvor du kan konstruere dine egne unikke billedgenereringsarbejdsgange ved at forbinde forskellige noder, hver repræsenterende en specifik funktion eller operation. 🧩 Det er som at bygge en visuel opskrift på dine AI-genererede mesterværker!

Vil du generere et billede fra bunden ved hjælp af en tekstprompt? Der er en node til det! Har du brug for at anvende en bestemt sampler eller finjustere støjniveauet? Tilføj blot de tilsvarende noder og se magien ske. ✨

Men her er det bedste: ComfyUI opdeler arbejdsgangen i omarrangerbare elementer, hvilket giver dig friheden til at skabe dine egne tilpassede arbejdsgange, der er skræddersyet til din kunstneriske vision. 🖼️ Det er som at have et personligt værktøjssæt, der tilpasser sig din kreative proces.

1.1. ComfyUI vs. AUTOMATIC1111 🆚

AUTOMATIC1111 er standard GUI for Stable Diffusion. Så skal du bruge ComfyUI i stedet? Lad os sammenligne:

✅ Fordele ved at bruge ComfyUI:

  1. Letvægts: Det kører hurtigt og effektivt.
  2. Fleksibel: Meget konfigurerbar til at opfylde dine behov.
  3. Gennemsigtig: Dataflowet er synligt og let at forstå.
  4. Let at dele: Hver fil repræsenterer en reproducerbar arbejdsgang.
  5. God til prototyper: Skab prototyper med en grafisk grænseflade i stedet for kodning.

❌ Ulemper ved at bruge ComfyUI:

  1. Uensartet grænseflade: Hver arbejdsgang kan have en forskellig node-layout.
  2. For mange detaljer: Gennemsnitsbrugere behøver måske ikke at kende de underliggende forbindelser.

1.2. Hvor skal man starte med ComfyUI? 🏁

Vi mener, at den bedste måde at lære ComfyUI på er ved at dykke ned i eksempler og opleve det førstehånds. 🙌 Derfor har vi skabt denne unikke tutorial, der adskiller sig fra andre. I denne tutorial finder du en detaljeret, trin-for-trin guide, som du kan følge med i.

Men her er det bedste: 🌟 Vi har integreret ComfyUI direkte på denne webside! Du vil kunne interagere med ComfyUI eksempler i realtid, mens du skrider frem gennem guiden.🌟 Lad os dykke ind!

2. ComfyUI Arbejdsgange: Tekst-til-Billede 🖼️

Lad os begynde med den enkleste sag: at generere et billede fra tekst. Klik på Queue Prompt for at køre arbejdsgangen. Efter en kort ventetid skulle du se dit første genererede billede! For at tjekke din kø, skal du blot klikke på View Queue.

Her er en standard tekst-til-billede arbejdsgang for dig at prøve:

Grundlæggende Byggeklodser 🕹️

ComfyUI arbejdsgangen består af to grundlæggende byggeklodser: Noder og Kanter.

  • Noder er de rektangulære blokke, f.eks. Load Checkpoint, Clip Text Encoder osv. Hver node udfører specifik kode og kræver inputs, outputs og parametre.
  • Kanter er ledningerne, der forbinder outputs og inputs mellem noder.

Grundlæggende Kontroller 🕹️

  • Zoom ind og ud ved hjælp af musehjulet eller to-finger knib.
  • Træk og hold input- eller output-punktet for at oprette forbindelser mellem noder.
  • Bevæg dig rundt i arbejdsområdet ved at holde og trække med venstre museknap.

Lad os dykke ned i detaljerne i denne arbejdsgang.

ComfyUI arbejdsgang: tekst til billede

2.1. Valg af Model 🗃️

Først skal du vælge en Stable Diffusion Checkpoint model i Load Checkpoint node. Klik på modelnavnet for at se tilgængelige modeller. Hvis klik på modelnavnet ikke gør noget, skal du muligvis uploade en brugerdefineret model.

2.2. Indtastning af Positivt Prompt og Negativt Prompt 📝

Du vil se to noder mærket CLIP Text Encode (Prompt). Den øverste prompt er forbundet til positiv input af KSampler node, mens den nederste prompt er forbundet til negativ input. Så indtast din positive prompt i den øverste og din negative prompt i den nederste.

CLIP Text Encode node konverterer prompten til tokens og koder dem til embeddings ved hjælp af tekstkoder.

💡 Tip: Brug (keyword:weight) syntaks til at kontrollere vægten af et nøgleord, f.eks. (keyword:1.2) for at øge dets effekt eller (keyword:0.8) for at mindske det.

2.3. Generering af et Billede 🎨

Klik på Queue Prompt for at køre arbejdsgangen. Efter en kort ventetid vil dit første billede blive genereret!

2.4. Teknisk Forklaring af ComfyUI 🤓

Kraften i ComfyUI ligger i dets konfigurerbarhed. Forståelse af, hvad hver node gør, giver dig mulighed for at tilpasse dem til dine behov. Men før vi dykker ned i detaljerne, lad os tage et kig på Stable Diffusion processen for bedre at forstå, hvordan ComfyUI fungerer.

Stable Diffusion processen kan opsummeres i tre hovedtrin:

  1. Tekstkodning: Brugerinput-prompten kompileres til individuelle ord-featurevektorer af en komponent kaldet Text Encoder. Dette trin konverterer teksten til et format, som modellen kan forstå og arbejde med.
  2. Latent rumtransformation: Featurevektorerne fra Text Encoder og et tilfældigt støjbillede transformeres til et latent rum. I dette rum gennemgår det tilfældige billede en denoising-proces baseret på featurevektorerne, hvilket resulterer i et mellemprodukt. Dette trin er, hvor magien sker, da modellen lærer at forbinde tekstfunktionerne med visuelle repræsentationer.
  3. Billedekodning: Endelig dekodes mellemproduktet fra det latente rum af billeddekoderen, der konverterer det til et faktisk billede, som vi kan se og værdsætte.

Nu hvor vi har en overordnet forståelse af Stable Diffusion processen, lad os dykke ned i nøglekomponenterne og noderne i ComfyUI, der gør denne proces mulig.

2.4.1 Indlæs Checkpoint Node 🗃️

Load Checkpoint node i ComfyUI er afgørende for valg af en Stable Diffusion model. En Stable Diffusion model består af tre hovedkomponenter: MODEL, CLIP og VAE. Lad os udforske hver komponent og dens forhold til de tilsvarende noder i ComfyUI.

  1. MODEL: MODEL-komponenten er støjprediktormodellen, der opererer i det latente rum. Den er ansvarlig for den centrale proces med at generere billeder fra den latente repræsentation. I ComfyUI forbinder MODEL-outputtet fra Load Checkpoint node til KSampler node, hvor den omvendte diffusionsproces finder sted. KSampler node bruger MODEL til at denoise den latente repræsentation iterativt og gradvist forfine billedet, indtil det matcher den ønskede prompt.
  2. CLIP: CLIP (Contrastive Language-Image Pre-training) er en sprogmodel, der forbehandler de positive og negative prompts, som brugeren leverer. Den konverterer tekstprompts til et format, som MODEL kan forstå og bruge til at guide billedgenereringsprocessen. I ComfyUI forbinder CLIP-outputtet fra Load Checkpoint node til CLIP Text Encode node. CLIP Text Encode node tager de brugerleverede prompts og føder dem ind i CLIP sprogmodellen, der transformerer hvert ord til embeddings. Disse embeddings fanger de semantiske betydninger af ordene og gør det muligt for MODEL at generere billeder, der stemmer overens med de givne prompts.
  3. VAE: VAE (Variational AutoEncoder) er ansvarlig for at konvertere billedet mellem pixelrummet og det latente rum. Det består af en encoder, der komprimerer billedet til en lavere dimensionel latent repræsentation, og en decoder, der rekonstruerer billedet fra den latente repræsentation. I tekst-til-billede-processen bruges VAE kun i det sidste trin til at konvertere det genererede billede fra det latente rum tilbage til pixelrummet. VAE Decode node i ComfyUI tager outputtet fra KSampler node (som opererer i det latente rum) og bruger decoder-delen af VAE til at transformere den latente repræsentation til det endelige billede i pixelrummet.

Det er vigtigt at bemærke, at VAE er en separat komponent fra CLIP sprogmodellen. Mens CLIP fokuserer på at behandle tekstprompts, håndterer VAE konverteringen mellem pixel- og latentrum.

2.4.2. CLIP Tekst Encode 📝

CLIP Text Encode node i ComfyUI er ansvarlig for at tage de brugerleverede prompts og føde dem ind i CLIP sprogmodellen. CLIP er en kraftfuld sprogmodel, der forstår den semantiske betydning af ord og kan associere dem med visuelle koncepter. Når en prompt indtastes i CLIP Text Encode node, gennemgår den en transformationsproces, hvor hvert ord konverteres til embeddings. Disse embeddings er høj-dimensionelle vektorer, der fanger de semantiske informationer af ordene. Ved at transformere prompts til embeddings gør CLIP det muligt for MODEL at generere billeder, der nøjagtigt afspejler betydningen og hensigten med de givne prompts.

2.4.3. Tom Latent Billede 🌌

I tekst-til-billede-processen starter genereringen med et tilfældigt billede i det latente rum. Dette tilfældige billede fungerer som den indledende tilstand for MODEL at arbejde med. Størrelsen af det latente billede er proportional med den faktiske billedstørrelse i pixelrummet. I ComfyUI kan du justere højden og bredden af det latente billede for at kontrollere størrelsen af det genererede billede. Derudover kan du indstille batchstørrelsen til at bestemme antallet af billeder, der genereres i hver kørsel.

De optimale størrelser for latente billeder afhænger af den specifikke Stable Diffusion model, der bruges. For SD v1.5 modeller anbefales størrelserne 512x512 eller 768x768, mens for SDXL modeller er den optimale størrelse 1024x1024. ComfyUI tilbyder en række almindelige billedformater at vælge imellem, såsom 1:1 (kvadrat), 3:2 (landskab), 2:3 (portræt), 4:3 (landskab), 3:4 (portræt), 16:9 (widescreen) og 9:16 (vertikal). Det er vigtigt at bemærke, at bredden og højden af det latente billede skal være deleligt med 8 for at sikre kompatibilitet med modellens arkitektur.

2.4.4. VAE 🔍

VAE (Variational AutoEncoder) er en afgørende komponent i Stable Diffusion modellen, der håndterer konverteringen af billeder mellem pixelrummet og det latente rum. Den består af to hoveddele: en Billedencoder og en Billeddecoder.

Billedencoderen tager et billede i pixelrummet og komprimerer det til en lavere dimensionel latent repræsentation. Denne kompressionsproces reducerer dataens størrelse betydeligt, hvilket muliggør mere effektiv behandling og lagring. For eksempel kan et billede på 512x512 pixels komprimeres ned til en latent repræsentation på 64x64.

På den anden hånd, er Billeddecoderen, også kendt som VAE Decoder, ansvarlig for at rekonstruere billedet fra den latente repræsentation tilbage til pixelrummet. Den tager den komprimerede latente repræsentation og udvider den for at generere det endelige billede.

Brugen af en VAE tilbyder flere fordele:

  1. Effektivitet: Ved at komprimere billedet til et lavere dimensionelt latentrum muliggør VAE hurtigere generering og kortere træningstider. Den reducerede datastørrelse tillader mere effektiv behandling og hukommelsesbrug.
  2. Manipulation af latent rum: Det latente rum giver en mere kompakt og meningsfuld repræsentation af billedet. Dette tillader mere præcis kontrol og redigering af billeddetaljer og stil. Ved at manipulere den latente repræsentation bliver det muligt at ændre specifikke aspekter af det genererede billede.

Der er dog også nogle ulemper at overveje:

  1. Datatab: Under kodnings- og dekodingsprocessen kan nogle detaljer af det oprindelige billede gå tabt. Kompressions- og rekonstruktionsprocesserne kan introducere artefakter eller små variationer i det endelige billede sammenlignet med det oprindelige.
  2. Begrænset indfangning af oprindelige data: Det lavere dimensionelle latente rum kan muligvis ikke fuldt ud indfange alle de indviklede funktioner og detaljer i det oprindelige billede. Nogle informationer kan gå tabt under kompressionsprocessen, hvilket resulterer i en lidt mindre nøjagtig repræsentation af de oprindelige data.

På trods af disse begrænsninger spiller VAE en vital rolle i Stable Diffusion modellen ved at muliggøre effektiv konvertering mellem pixelrummet og det latente rum, hvilket letter hurtigere generering og mere præcis kontrol over de genererede billeder.

2.4.5. KSampler ⚙️

KSampler node i ComfyUI er hjertet af billedgenereringsprocessen i Stable Diffusion. Den er ansvarlig for at denoise det tilfældige billede i det latente rum for at matche den brugerleverede prompt. KSampler anvender en teknik kaldet omvendt diffusion, hvor den iterativt forfiner den latente repræsentation ved at fjerne støj og tilføje meningsfulde detaljer baseret på vejledningen fra CLIP embeddings.

KSampler noden tilbyder flere parametre, der tillader brugere at finjustere billedgenereringsprocessen:

Seed: Seed-værdien kontrollerer den indledende støj og sammensætning af det endelige billede. Ved at indstille en specifik seed kan brugere opnå reproducerbare resultater og opretholde konsistens på tværs af flere generationer.

Control_after_generation: Denne parameter bestemmer, hvordan seed-værdien ændres efter hver generation. Den kan indstilles til at randomisere (generere en ny tilfældig seed for hver kørsel), inkrementere (øge seed-værdien med 1), dekrementere (sænke seed-værdien med 1) eller fast (holde seed-værdien konstant).

Step: Antallet af samplingstrin bestemmer intensiteten af forfiningsprocessen. Højere værdier resulterer i færre artefakter og mere detaljerede billeder, men øger også genereringstiden.

Sampler_name: Denne parameter tillader brugere at vælge den specifikke samplingalgoritme, der bruges af KSampler. Forskellige samplingalgoritmer kan give lidt forskellige resultater og have varierende genereringshastigheder.

Scheduler: Scheduler kontrollerer, hvordan støjniveauet ændres ved hvert trin af denoising-processen. Den bestemmer hastigheden, hvormed støj fjernes fra den latente repræsentation.

Denoise: Denoise-parameteren indstiller mængden af indledende støj, der skal fjernes ved denoising-processen. En værdi på 1 betyder, at al støj vil blive fjernet, hvilket resulterer i et rent og detaljeret billede.

Ved at justere disse parametre kan du finjustere billedgenereringsprocessen for at opnå de ønskede resultater.

Er du klar til at starte din ComfyUI-rejse?

Hos RunComfy har vi skabt den ultimative ComfyUI online oplevelse kun for dig. Sig farvel til komplicerede installationer! 🎉 Prøv ComfyUI Online nu og frigør dit kunstneriske potentiale som aldrig før! 🎉

3. ComfyUI Arbejdsgang: Billede-til-Billede 🖼️

Billede-til-Billede arbejdsgangen genererer et billede baseret på en prompt og et inputbillede. Prøv det selv!

For at bruge Billede-til-Billede arbejdsgangen:

  1. Vælg checkpoint-modellen.
  2. Upload billedet som en billedprompt.
  3. Revider de positive og negative prompts.
  4. Juster eventuelt denoise (denoising-styrke) i KSampler noden.
  5. Tryk på Queue Prompt for at starte genereringen.
ComfyUI arbejdsgang: billede til billede

For flere premium ComfyUI arbejdsgange, besøg vores 🌟ComfyUI Workflow List🌟

4. ComfyUI SDXL 🚀

Takket være dets ekstreme konfigurerbarhed er ComfyUI en af de første GUI'er til at understøtte Stable Diffusion XL-modellen. Lad os prøve det!

For at bruge ComfyUI SDXL arbejdsgangen:

  1. Revider de positive og negative prompts.
  2. Tryk på Queue Prompt for at starte genereringen.

5. ComfyUI Inpainting 🎨

Lad os dykke ned i noget mere komplekst: inpainting! Når du har et fantastisk billede men ønsker at ændre specifikke dele, er inpainting den bedste metode. Prøv det her!

For at bruge inpainting arbejdsgangen:

  1. Upload et billede, du vil inpainta.
  2. Højreklik på billedet og vælg "Open in MaskEditor". Masker området, der skal regenereres, og klik derefter på "Save to node". ComfyUI arbejdsgang: inpainting
  3. Vælg en Checkpoint-model:
    • Denne arbejdsgang fungerer kun med en standard Stable Diffusion model, ikke en Inpainting model.
    • Hvis du vil bruge en inpainting model, skal du skifte "VAE Encode" og "Set Noise Latent Mask" noderne til "VAE Encode (Inpaint)" noden, som er specielt designet til inpainting modeller.
  4. Tilpas inpainting processen:
    • I CLIP Text Encode (Prompt) noden kan du indtaste yderligere information for at guide inpaintingen. For eksempel kan du specificere stilen, temaet eller elementerne, du ønsker at inkludere i inpainting-området.
  5. Indstil den oprindelige denoising-styrke (denoise), f.eks. 0.6.
  6. Tryk på Queue Prompt for at udføre inpainting.
ComfyUI inpainting arbejdsgang

6. ComfyUI Outpainting 🖌️

Outpainting er en anden spændende teknik, der giver dig mulighed for at udvide dine billeder ud over deres oprindelige grænser. 🌆 Det er som at have et uendeligt lærred at arbejde med!

For at bruge ComfyUI Outpainting arbejdsgangen:

  1. Start med et billede, du vil udvide.
  2. Brug Pad Image for Outpainting noden til din arbejdsgang.
  3. Konfigurer outpainting-indstillingerne:
    • venstre, top, højre, bund: Angiv antallet af pixels, der skal udvides i hver retning.
    • feathering: Juster glatheden af overgangen mellem det oprindelige billede og outpainting-området. Højere værdier skaber en mere gradvis overgang, men kan introducere en udtværingseffekt.
  4. Tilpas outpainting-processen:
    • I CLIP Text Encode (Prompt) noden kan du indtaste yderligere information for at guide outpaintingen. For eksempel kan du specificere stilen, temaet eller elementerne, du ønsker at inkludere i det udvidede område.
    • Eksperimenter med forskellige prompts for at opnå de ønskede resultater.
  5. Finjuster VAE Encode (for Inpainting) noden:
    • Juster grow_mask_by parameteren for at kontrollere størrelsen af outpainting-masken. En værdi større end 10 anbefales for optimale resultater.
  6. Tryk på Queue Prompt for at starte outpainting-processen.
ComfyUI outpainting arbejdsgang

For flere premium inpainting/outpainting arbejdsgange, besøg vores 🌟ComfyUI Workflow List🌟

7. ComfyUI Opskalering ⬆️

Lad os derefter udforske ComfyUI opskalering. Vi vil introducere tre grundlæggende arbejdsgange for at hjælpe dig med at opskalere effektivt.

Der er to hovedmetoder til opskalering:

  1. Opskalering af pixel: Direkte opskalere det synlige billede.
    • Input: billede, Output: opskaleret billede
  2. Opskalering af latent: Opskalere det usynlige latente rum billede.
    • Input: latent, Output: opskaleret latent (kræver dekodning for at blive et synligt billede)

7.1. Opskalering af Pixel 🖼️

To måder at opnå dette på:

  1. Ved hjælp af algoritmer: Hurtigste genereringshastighed, men lidt ringere resultater sammenlignet med modeller.
  2. Ved hjælp af modeller: Bedre resultater, men langsommere genereringstid.

7.1.1. Opskalering af Pixel ved Algoritme 🧮

  • Tilføj Opskalering Billede ved node.
  • metode parameter: Vælg opskaleringsalgoritmen (bicubic, bilinear, nearest-exact).
  • Skala parameter: Angiv opskaleringsfaktoren (f.eks. 2 for 2x).
ComfyUI Opskalering Pixel ved Algoritme

7.1.2. Opskalering af Pixel ved Model 🤖

  • Tilføj Opskalering Billede (ved hjælp af Model) node.
  • Tilføj Load Opskalering Model node.
  • Vælg en model, der passer til din billedtype (f.eks. anime eller real-life).
  • Vælg opskaleringsfaktoren (X2 eller X4).
ComfyUI Opskalering Pixel ved Model

7.2. Opskalering af Latent ⚙️

En anden opskaleringsmetode er Opskalering Latent, også kendt som Hi-res Latent Fix Opskalering, som direkte opskalerer i det latente rum.

ComfyUI Opskalering Latent

7.3. Opskalering Pixel vs. Opskalering Latent 🆚

  • Opskalering Pixel: Kun forstørrer billedet uden at tilføje ny information. Hurtigere generering, men kan have en udtværingseffekt og mangler detaljer.
  • Opskalering Latent: Udover at forstørre ændrer den nogle af de oprindelige billedinformationer, hvilket beriger detaljer. Kan afvige fra det oprindelige billede og har en langsommere genereringshastighed.

For flere premium restore/opskalering arbejdsgange, besøg vores 🌟ComfyUI Workflow List🌟

8. ComfyUI ControlNet 🎮

Gør dig klar til at tage din AI-kunst til det næste niveau med ControlNet, en banebrydende teknologi, der revolutionerer billedgenerering!

ControlNet er som en tryllestav 🪄, der giver dig enestående kontrol over dine AI-genererede billeder. Det arbejder hånd i hånd med kraftful de modeller som Stable Diffusion, og forbedrer deres egenskaber og giver dig mulighed for at vejlede billedskabelsesprocessen som aldrig før!

Forestil dig at kunne specificere kanterne, menneskelige positurer, dybden eller endda segmenteringskortene af dit ønskede billede. 🌠 Med ControlNet kan du gøre netop det!

Hvis du er ivrig efter at dykke dybere ned i ControlNets verden og udløse dets fulde potentiale, har vi dig dækket. Tjek vores detaljerede tutorial om mastering ControlNet in ComfyUI! 📚 Den er fyldt med trin-for-trin guider og inspirerende eksempler for at hjælpe dig med at blive en ControlNet ekspert. 🏆

9. ComfyUI Manager 🛠️

ComfyUI Manager er en brugerdefineret node, der giver dig mulighed for at installere og opdatere andre brugerdefinerede noder gennem ComfyUI-grænsefladen. Du finder Manager-knappen i Queue Prompt-menuen.

9.1. Hvordan man Installere Manglende Custom Nodes 📥

Hvis en arbejdsgang kræver brugerdefinerede noder, som du ikke har installeret, skal du følge disse trin:

  1. Klik på Manager i Menuen.
  2. Klik på Install Missing Custom Nodes.
  3. Genstart ComfyUI helt.
  4. Opdater browseren.

9.2. Hvordan man Opdaterer Custom Nodes 🔄

  1. Klik på Manager i Menuen.
  2. Klik på Fetch Updates (kan tage et stykke tid).
  3. Klik på Install Custom Nodes.
  4. Hvis en opdatering er tilgængelig, vises en Opdater-knap ved siden af den installerede brugerdefinerede node.
  5. Klik på Opdater for at opdatere noden.
  6. Genstart ComfyUI.
  7. Opdater browseren.
ComfyUI Manager

9.3. Hvordan man Indlæser Custom Nodes i Din Arbejdsgang 🔍

Dobbeltklik på et hvilket som helst tomt område for at frembringe en menu til at søge efter noder.

ComfyUI Manager

10. ComfyUI Embeddings 📝

Embeddings, også kendt som tekstuel inversion, er en kraftfuld funktion i ComfyUI, der giver dig mulighed for at injicere brugerdefinerede koncepter eller stilarter i dine AI-genererede billeder. 💡 Det er som at lære AI'en et nyt ord eller udtryk og associere det med specifikke visuelle karakteristika.

For at bruge embeddings i ComfyUI skal du blot skrive "embedding:" efterfulgt af navnet på din embedding i den positive eller negative promptboks. For eksempel:

embedding: BadDream

ComfyUI Embeddings

Når du bruger denne prompt, vil ComfyUI søge efter en embedding-fil ved navn "BadDream" i ComfyUI > models > embeddings mappen. 📂 Hvis den finder et match, vil den anvende de tilsvarende visuelle karakteristika på dit genererede billede.

Embeddings er en fantastisk måde at personliggøre din AI-kunst og opnå specifikke stilarter eller æstetikker. 🎨 Du kan skabe dine egne embeddings ved at træne dem på et sæt billeder, der repræsenterer det ønskede koncept eller stil.

10.1. Embedding med Autocomplete 🔠

At huske de nøjagtige navne på dine embeddings kan være en besvær, især hvis du har en stor samling. 😅 Her kommer ComfyUI-Custom-Scripts brugerdefinerede node til undsætning!

For at aktivere embedding-navne autocomplete:

  1. Åbn ComfyUI Manager ved at klikke på "Manager" i topmenuen.
  2. Gå til "Install Custom nodes" og søg efter "ComfyUI-Custom-Scripts".
  3. Klik på "Install" for at tilføje den brugerdefinerede node til din ComfyUI opsætning.
  4. Genstart ComfyUI for at anvende ændringerne.

Når du har installeret ComfyUI-Custom-Scripts noden, vil du opleve en mere brugervenlig måde at bruge embeddings på. 😊 Begynd blot at skrive "embedding:" i en promptboks, og en liste over tilgængelige embeddings vil dukke op. Du kan derefter vælge den ønskede embedding fra listen, hvilket sparer dig tid og kræfter!

10.2. Embedding Vægt ⚖️

Vidste du, at du kan kontrollere styrken af dine embeddings? 💪 Da embeddings i det væsentlige er nøgleord, kan du anvende vægte på dem, ligesom du ville med almindelige nøgleord i dine prompts.

For at justere vægten af en embedding, brug følgende syntaks:

(embedding: BadDream:1.2)

I dette eksempel er vægten af "BadDream" embedding øget med 20%. Så højere vægte (f.eks. 1.2) vil gøre embedding mere fremtrædende, mens lavere vægte (f.eks. 0.8) vil mindske dens indflydelse. 🎚️ Dette giver dig endnu mere kontrol over det endelige resultat!

11. ComfyUI LoRA 🧩

LoRA, kort for Low-rank Adaptation, er en anden spændende funktion i ComfyUI, der giver dig mulighed for at modificere og finjustere dine checkpoint-modeller. 🎨 Det er som at tilføje en lille, specialiseret model oven på din basismodel for at opnå specifikke stilarter eller inkorporere brugerdefinerede elementer.

LoRA-modeller er kompakte og effektive, hvilket gør dem nemme at bruge og dele. De bruges ofte til opgaver som at ændre den kunstneriske stil af et billede eller injicere en specifik person eller objekt i det genererede resultat.

Når du anvender en LoRA-model på en checkpoint-model, modificerer den MODEL og CLIP komponenterne, mens den lader VAE (Variational Autoencoder) være urørt. Dette betyder, at LoRA fokuserer på at justere indholdet og stilen af billedet uden at ændre dets overordnede struktur.

11.1. Hvordan man bruger LoRA 🔧

At bruge LoRA i ComfyUI er ligetil. Lad os tage et kig på den enkleste metode:

  1. Vælg en checkpoint-model, der fungerer som base for din billedgenerering.
  2. Vælg en LoRA-model, som du vil anvende for at ændre stilen eller injicere specifikke elementer.
  3. Revider de positive og negative prompts for at vejlede billedgenereringsprocessen.
  4. Klik på "Queue Prompt" for at starte genereringen af billedet med den anvendte LoRA. ▶

ComfyUI vil derefter kombinere checkpoint-modellen og LoRA-modellen for at skabe et billede, der afspejler de specificerede prompts og inkorporerer de modificeringer, der er introduceret af LoRA.

11.2. Flere LoRAs 🧩🧩

Men hvad nu hvis du vil anvende flere LoRAs på et enkelt billede? Intet problem! ComfyUI giver dig mulighed for at bruge to eller flere LoRAs i den samme tekst-til-billede arbejdsgang.

ComfyUI LoRA

Processen ligner brugen af en enkelt LoRA, men du skal vælge flere LoRA-modeller i stedet for kun én. ComfyUI vil anvende LoRAs sekventielt, hvilket betyder, at hver LoRA vil bygge videre på de modificeringer, der er introduceret af den foregående.

Dette åbner en verden af muligheder for at kombinere forskellige stilarter, elementer og modificeringer i dine AI-genererede billeder. 🌍💡 Eksperimenter med forskellige LoRA-kombinationer for at opnå unikke og kreative resultater!

12. Genveje og Tricks til ComfyUI ⌨️🖱️

12.1. Kopier og Indsæt 📋

  • Vælg en node og tryk Ctrl+C for at kopiere.
  • Tryk Ctrl+V for at indsætte.
  • Tryk Ctrl+Shift+V for at indsætte med inputforbindelser intakte.

12.2. Flytning af Flere Noder 🖱️

  • Opret en gruppe for at flytte et sæt noder sammen.
  • Alternativt, hold Ctrl nede og træk for at oprette en boks for at vælge flere noder, eller hold Ctrl nede for at vælge flere noder individuelt.
  • For at flytte de valgte noder, hold Shift nede og bevæg musen.

12.3. Omgå en Node 🔇

  • Deaktiver midlertidigt en node ved at mute den. Vælg en node og tryk Ctrl+M.
  • Der er ingen tastaturgenvej til at mute en gruppe. Vælg Omgå Gruppe Node i højreklik-menuen eller mute den første node i gruppen for at deaktivere den.

12.4. Minimer en Node 🔍

  • Klik på prikken i øverste venstre hjørne af noden for at minimere den.

12.5. Generer Billede ▶️

  • Tryk Ctrl+Enter for at sætte arbejdsgangen i kø og generere billeder.

12.6. Indlejret Arbejdsgang 🖼️

  • ComfyUI gemmer hele arbejdsgangen i metadataene for PNG-filen, den genererer. For at indlæse arbejdsgangen, træk og slip billedet i ComfyUI.

12.7. Fikser Frø for at Spare Tid ⏰

  • ComfyUI kører kun en node igen, hvis inputtet ændrer sig. Når du arbejder på en lang kæde af noder, spar tid ved at fiksere frøet for at undgå at regenerere upstream resultater.

13. ComfyUI Online 🚀

Tillykke med at have gennemført denne begyndervejledning til ComfyUI! 🙌 Du er nu klar til at dykke ned i den spændende verden af AI-kunstskabelse. Men hvorfor besvære dig med installation, når du kan begynde at skabe med det samme? 🤔

Hos RunComfy har vi gjort det enkelt for dig at bruge ComfyUI online uden nogen opsætning. Vores ComfyUI Online service kommer forudindlæst med over 200 populære noder og modeller, sammen med 50+ fantastiske arbejdsgange for at inspirere dine kreationer.

🌟 Uanset om du er nybegynder eller erfaren AI-kunstner, har RunComfy alt, hvad du behøver for at bringe dine kunstneriske visioner til live. 💡 Vent ikke længere – prøv ComfyUI Online nu og oplev kraften i AI-kunstskabelse lige ved hånden! 🚀

RunComfy

© Ophavsret 2024 RunComfy. Alle rettigheder forbeholdes.

RunComfy er den førende ComfyUI platform, der tilbyder ComfyUI online miljø og tjenester, sammen med ComfyUI-arbejdsgange med fantastiske visuals.