ComfyUI  >  Handledningar  >  Lås Upp Kraften i ComfyUI: En Nybörjarguide med Praktisk Övning

Hej, kära AI-konstnärer! 👋 Välkommen till vår nybörjarvänliga guide om ComfyUI, ett otroligt kraftfullt och flexibelt verktyg för att skapa fantastiska AI-genererade konstverk. 🎨 I denna guide kommer vi att gå igenom grunderna i ComfyUI, utforska dess funktioner och hjälpa dig att låsa upp dess potential för att ta din AI-konst till nästa nivå. 🚀

Vi kommer att täcka:

1. Vad är ComfyUI?

  • 1.1. ComfyUI vs. AUTOMATIC1111
  • 1.2. Var Ska Man Börja med ComfyUI?
  • 1.3. Grundläggande Kontroller

2. ComfyUI Arbetsflöden: Text-till-Bild

  • 2.1. Välja en Modell
  • 2.2. Ange Positiv och Negativ Prompt
  • 2.3. Generera en Bild
  • 2.4. Teknisk Förklaring av ComfyUI
    • 2.4.1 Ladda Checkpoint Node
    • 2.4.2. CLIP Text Encode
    • 2.4.3. Tomt Latent Bild
    • 2.4.4. VAE
    • 2.4.5. KSampler

3. ComfyUI Arbetsflöde: Bild-till-Bild

4. ComfyUI SDXL

5. ComfyUI Inpainting

6. ComfyUI Outpainting

7. ComfyUI Upscale

  • 7.1. Förstora Pixel
    • 7.1.1. Förstora Pixel med Algoritm
    • 7.1.2. Förstora Pixel med Modell
  • 7.2. Förstora Latent
  • 7.3. Förstora Pixel vs. Förstora Latent

8. ComfyUI ControlNet

9. ComfyUI Manager

  • 9.1. Hur Man Installerar Saknade Anpassade Noder
  • 9.2. Hur Man Uppdaterar Anpassade Noder
  • 9.3. Hur Man Laddar Anpassade Noder i Ditt Arbetsflöde

10. ComfyUI Embeddings

  • 10.1. Inbäddning med Autocomplete
  • 10.2. Inbäddningsvikt

11. ComfyUI LoRA

  • 11.1. Enkla LoRA Arbetsflöden
  • 11.2. Flera LoRAs

12. Genvägar och Tips för ComfyUI

  • 12.1. Kopiera och Klistra In
  • 12.2. Flytta Flera Noder
  • 12.3. Passera en Nod
  • 12.4. Minimera en Nod
  • 12.5. Generera Bild
  • 12.6. Inbäddat Arbetsflöde
  • 12.7. Fixa Frön för att Spara Tid

13. ComfyUI Online

1. Vad är ComfyUI? 🤔

ComfyUI är som att ha en trollstav 🪄 för att skapa fantastiska, AI-genererade konstverk med lätthet. I sin kärna är ComfyUI ett nodbaserat grafiskt användargränssnitt (GUI) byggt ovanpå Stable Diffusion, en toppmodern djupinlärningsmodell som genererar bilder från textbeskrivningar. 🌟 Men det som gör ComfyUI verkligen speciellt är hur det ger konstnärer som du möjlighet att frigöra din kreativitet och förverkliga dina vildaste idéer.

Föreställ dig en digital duk där du kan konstruera dina egna unika bildgenereringsarbetsflöden genom att ansluta olika noder, var och en representerande en specifik funktion eller operation. 🧩 Det är som att bygga ett visuellt recept för dina AI-genererade mästerverk!

Vill du generera en bild från grunden med hjälp av en textprompt? Det finns en nod för det! Behöver du applicera en specifik sampler eller finjustera brusnivån? Lägg bara till de motsvarande noderna och se magin hända. ✨

Men här är det bästa: ComfyUI bryter ner arbetsflödet i omarrangerbara element, vilket ger dig friheten att skapa dina egna anpassade arbetsflöden skräddarsydda efter din konstnärliga vision. 🖼️ Det är som att ha en personlig verktygslåda som anpassar sig till din kreativa process.

1.1. ComfyUI vs. AUTOMATIC1111 🆚

AUTOMATIC1111 är standard-GUI för Stable Diffusion. Så, ska du använda ComfyUI istället? Låt oss jämföra:

✅ Fördelar med att använda ComfyUI:

  1. Lättvikt: Det körs snabbt och effektivt.
  2. Flexibelt: Mycket konfigurerbart för att passa dina behov.
  3. Transparent: Dataflödet är synligt och lätt att förstå.
  4. Lätt att dela: Varje fil representerar ett reproducerbart arbetsflöde.
  5. Bra för prototyper: Skapa prototyper med ett grafiskt gränssnitt istället för att koda.

❌ Nackdelar med att använda ComfyUI:

  1. Inkonsekvent gränssnitt: Varje arbetsflöde kan ha en annan nodlayout.
  2. För mycket detaljer: Genomsnittsanvändare kanske inte behöver veta de underliggande anslutningarna.

1.2. Var Ska Man Börja med ComfyUI? 🏁

Vi tror att det bästa sättet att lära sig ComfyUI är att dyka in i exempel och uppleva det själv. 🙌 Därför har vi skapat denna unika guide som skiljer sig från andra. I denna guide hittar du en detaljerad, steg-för-steg-guide som du kan följa med.

Men här är det bästa: 🌟 Vi har integrerat ComfyUI direkt på denna webbsida! Du kommer att kunna interagera med ComfyUI-exempel i realtid medan du går igenom guiden.🌟 Låt oss dyka in!

2. ComfyUI Arbetsflöden: Text-till-Bild 🖼️

Låt oss börja med det enklaste fallet: att generera en bild från text. Klicka på Queue Prompt för att köra arbetsflödet. Efter en kort väntan bör du se din första genererade bild! För att kontrollera din kö, klicka bara på View Queue.

Här är ett standard text-till-bild arbetsflöde för dig att prova:

Grundläggande Byggstenar 🕹️

ComfyUI-arbetsflödet består av två grundläggande byggstenar: Noder och Kanter.

  • Noder är de rektangulära blocken, t.ex. Load Checkpoint, Clip Text Encoder, etc. Varje nod kör specifik kod och kräver inmatningar, utmatningar och parametrar.
  • Kanter är ledningarna som ansluter utmatningar och inmatningar mellan noder.

Grundläggande Kontroller 🕹️

  • Zooma in och ut med mushjulet eller tvåfingers zoom.
  • Dra och håll inmatnings- eller utmatningspunkten för att skapa anslutningar mellan noder.
  • Flytta runt arbetsytan genom att hålla ner vänster musknapp och dra.

Låt oss dyka in i detaljerna i detta arbetsflöde.

ComfyUI workflow: text to image

2.1. Välja en Modell 🗃️

Först, välj en Stable Diffusion Checkpoint-modell i Load Checkpoint noden. Klicka på modellnamnet för att visa tillgängliga modeller. Om ingenting händer när du klickar på modellnamnet, kan du behöva ladda upp en anpassad modell.

2.2. Ange Positiv och Negativ Prompt 📝

Du kommer att se två noder märkta CLIP Text Encode (Prompt). Den översta prompten är ansluten till positiv ingång på KSampler-noden, medan den nedre prompten är ansluten till negativ ingång. Så ange din positiva prompt i den översta och din negativa prompt i den nedre.

CLIP Text Encode noden konverterar prompten till tokens och kodar dem till inbäddningar med hjälp av textkodaren.

💡 Tips: Använd (nyckelord:vikt) syntax för att kontrollera vikten av ett nyckelord, t.ex. (nyckelord:1.2) för att öka dess effekt eller (nyckelord:0.8) för att minska den.

2.3. Generera en Bild 🎨

Klicka på Queue Prompt för att köra arbetsflödet. Efter en kort väntan kommer din första bild att genereras!

2.4. Teknisk Förklaring av ComfyUI 🤓

ComfyUIs kraft ligger i dess konfigurerbarhet. Att förstå vad varje nod gör låter dig skräddarsy dem efter dina behov. Men innan vi dyker in i detaljerna, låt oss ta en titt på Stable Diffusion-processen för att bättre förstå hur ComfyUI fungerar.

Stable Diffusion-processen kan sammanfattas i tre huvudsteg:

  1. Textkodning: Användarens inmatade prompt kompileras till individuella ords funktionsvektorer av en komponent kallad Textkodare. Detta steg konverterar texten till ett format som modellen kan förstå och arbeta med.
  2. Latent Rums Transformation: Funktionsvektorerna från Textkodaren och en slumpmässig brusbild transformeras till ett latent rum. I detta rum genomgår den slumpmässiga bilden en avbrusningsprocess baserad på funktionsvektorerna, vilket resulterar i en mellanprodukt. Detta steg är där magin händer, eftersom modellen lär sig att associera textfunktionerna med visuella representationer.
  3. Bilddekodning: Slutligen dekodas mellanprodukten från det latenta rummet av Bilddekodaren, vilket konverterar den till en faktisk bild som vi kan se och uppskatta.

Nu när vi har en hög nivå förståelse för Stable Diffusion-processen, låt oss dyka in i de viktigaste komponenterna och noderna i ComfyUI som gör denna process möjlig.

2.4.1 Ladda Checkpoint Node 🗃️

Ladda Checkpoint-noden i ComfyUI är avgörande för att välja en Stable Diffusion-modell. En Stable Diffusion-modell består av tre huvudkomponenter: MODEL, CLIP och VAE. Låt oss utforska varje komponent och dess relation till motsvarande noder i ComfyUI.

  1. MODEL: MODEL-komponenten är brusprediktormodellen som verkar i det latenta rummet. Den är ansvarig för den centrala processen att generera bilder från den latenta representationen. I ComfyUI ansluter MODEL-utgången från Ladda Checkpoint-noden till KSampler-noden, där den omvända diffusionsprocessen sker. KSampler-noden använder MODEL för att avbrusa den latenta representationen iterativt, vilket gradvis förfinar bilden tills den matchar den önskade prompten.
  2. CLIP: CLIP (Contrastive Language-Image Pre-training) är en språkmodell som förprocessar de positiva och negativa promptarna som användaren tillhandahåller. Den konverterar textpromptarna till ett format som MODEL kan förstå och använda för att styra bildgenereringsprocessen. I ComfyUI ansluter CLIP-utgången från Ladda Checkpoint-noden till CLIP Text Encode-noden. CLIP Text Encode-noden tar de användartillhandahållna promptarna och matar in dem i CLIP-språkmodellen, vilket transformerar varje ord till inbäddningar. Dessa inbäddningar fångar de semantiska betydelserna av orden och möjliggör för MODEL att generera bilder som överensstämmer med de givna promptarna.
  3. VAE: VAE (Variational AutoEncoder) är ansvarig för att konvertera bilden mellan pixelrummet och det latenta rummet. Den består av en kodare som komprimerar bilden till en lägre dimensionell latent representation och en dekoder som rekonstruerar bilden från den latenta representationen. I text-till-bild-processen används VAE endast i det sista steget för att konvertera den genererade bilden från det latenta rummet tillbaka till pixelrummet. VAE Decode-noden i ComfyUI tar utgången från KSampler-noden (som verkar i det latenta rummet) och använder dekoderingsdelen av VAE för att omvandla den latenta representationen till den slutliga bilden i pixelrummet.

Det är viktigt att notera att VAE är en separat komponent från CLIP-språkmodellen. Medan CLIP fokuserar på att bearbeta textpromptar, hanterar VAE konverteringen mellan pixel- och latentrum.

2.4.2. CLIP Text Encode 📝

CLIP Text Encode-noden i ComfyUI är ansvarig för att ta de användartillhandahållna promptarna och mata in dem i CLIP-språkmodellen. CLIP är en kraftfull språkmodell som förstår de semantiska betydelserna av ord och kan associera dem med visuella koncept. När en prompt matas in i CLIP Text Encode-noden genomgår den en transformationsprocess där varje ord omvandlas till inbäddningar. Dessa inbäddningar är högdimensionella vektorer som fångar den semantiska informationen i orden. Genom att omvandla promptarna till inbäddningar möjliggör CLIP för MODEL att generera bilder som exakt återspeglar betydelsen och avsikten med de givna promptarna.

2.4.3. Tomt Latent Bild 🌌

I text-till-bild-processen börjar genereringen med en slumpmässig bild i det latenta rummet. Denna slumpmässiga bild fungerar som det initiala tillståndet för MODEL att arbeta med. Storleken på den latenta bilden är proportionell mot den faktiska bildstorleken i pixelrummet. I ComfyUI kan du justera höjden och bredden på den latenta bilden för att kontrollera storleken på den genererade bilden. Dessutom kan du ställa in batchstorleken för att bestämma antalet bilder som genereras i varje körning.

De optimala storlekarna för latenta bilder beror på den specifika Stable Diffusion-modellen som används. För SD v1.5-modeller rekommenderas storlekarna 512x512 eller 768x768, medan för SDXL-modeller är den optimala storleken 1024x1024. ComfyUI tillhandahåller en rad vanliga bildförhållanden att välja mellan, som 1:1 (kvadratisk), 3:2 (landskap), 2:3 (porträtt), 4:3 (landskap), 3:4 (porträtt), 16:9 (widescreen) och 9:16 (vertikal). Det är viktigt att notera att bredden och höjden på den latenta bilden måste vara delbara med 8 för att säkerställa kompatibilitet med modellens arkitektur.

2.4.4. VAE 🔍

VAE (Variational AutoEncoder) är en avgörande komponent i Stable Diffusion-modellen som hanterar konverteringen av bilder mellan pixelrummet och det latenta rummet. Den består av två huvuddelar: en Bildkodare och en Bilddekoder.

Bildkodaren tar en bild i pixelrummet och komprimerar den till en lägre dimensionell latent representation. Denna komprimeringsprocess minskar avsevärt datastorleken, vilket möjliggör mer effektiv bearbetning och lagring. Till exempel kan en bild med storleken 512x512 pixlar komprimeras till en latent representation med storleken 64x64.

Å andra sidan är Bilddekodaren, även känd som VAE Dekodern, ansvarig för att rekonstruera bilden från den latenta representationen tillbaka till pixelrummet. Den tar den komprimerade latenta representationen och expanderar den för att generera den slutliga bilden.

Att använda en VAE erbjuder flera fördelar:

  1. Effektivitet: Genom att komprimera bilden till ett lägre dimensionellt latent rum möjliggör VAE snabbare generering och kortare träningstider. Den minskade datastorleken möjliggör mer effektiv bearbetning och minnesanvändning.
  2. Latent rumsmanipulation: Det latenta rummet ger en mer kompakt och meningsfull representation av bilden. Detta möjliggör mer exakt kontroll och redigering av bilddetaljer och stil. Genom att manipulera den latenta representationen blir det möjligt att ändra specifika aspekter av den genererade bilden.

Men det finns också några nackdelar att överväga:

  1. Dataförlust: Under kodnings- och dekoderingsprocessen kan vissa detaljer i den ursprungliga bilden gå förlorade. Komprimerings- och rekonstruktionsstegen kan introducera artefakter eller små variationer i den slutliga bilden jämfört med originalet.
  2. Begränsad fångst av ursprungliga data: Det lägre dimensionella latenta rummet kanske inte kan fullt ut fånga alla intrikata funktioner och detaljer i den ursprungliga bilden. Viss information kan gå förlorad under komprimeringsprocessen, vilket resulterar i en något mindre exakt representation av de ursprungliga data.

Trots dessa begränsningar spelar VAE en viktig roll i Stable Diffusion-modellen genom att möjliggöra effektiv konvertering mellan pixelrummet och det latenta rummet, vilket underlättar snabbare generering och mer exakt kontroll över de genererade bilderna.

2.4.5. KSampler ⚙️

KSampler-noden i ComfyUI är hjärtat av bildgenereringsprocessen i Stable Diffusion. Den är ansvarig för att avbrusa den slumpmässiga bilden i det latenta rummet för att matcha den användartillhandahållna prompten. KSampler använder en teknik som kallas omvänd diffusion, där den iterativt förfinar den latenta representationen genom att ta bort brus och lägga till meningsfulla detaljer baserat på vägledningen från CLIP-inbäddningarna.

KSampler-noden erbjuder flera parametrar som gör det möjligt för användare att finjustera bildgenereringsprocessen:

Frö: Frövärdet styr det initiala bruset och kompositionen av den slutliga bilden. Genom att ställa in ett specifikt frö kan användare uppnå reproducerbara resultat och bibehålla konsistens över flera generationer.

Control_after_generation: Denna parameter bestämmer hur frövärdet förändras efter varje generation. Det kan ställas in på randomisera (generera ett nytt slumpmässigt frö för varje körning), öka (öka frövärdet med 1), minska (minska frövärdet med 1) eller fast (behålla frövärdet konstant).

Steg: Antalet samplingssteg bestämmer intensiteten i förfiningsprocessen. Högre värden resulterar i färre artefakter och mer detaljerade bilder men ökar också genereringstiden.

Sampler_name: Denna parameter gör det möjligt för användare att välja den specifika samplingsalgoritmen som används av KSampler. Olika samplingsalgoritmer kan ge något olika resultat och ha varierande genereringshastigheter.

Scheduler: Schemaläggaren styr hur brusnivån förändras vid varje steg i avbrusningsprocessen. Den bestämmer hastigheten med vilken brus tas bort från den latenta representationen.

Denoise: Denoise-parametern ställer in mängden initialt brus som ska tas bort av avbrusningsprocessen. Ett värde på 1 betyder att allt brus kommer att tas bort, vilket resulterar i en ren och detaljerad bild.

Genom att justera dessa parametrar kan du finjustera bildgenereringsprocessen för att uppnå önskade resultat.

Nu, Är du redo att påbörja din ComfyUI-resa?

På RunComfy har vi skapat den ultimata ComfyUI online-upplevelsen bara för dig. Säg adjö till komplicerade installationer! 🎉 Prova ComfyUI Online nu och frigör din konstnärliga potential som aldrig förr! 🎉

3. ComfyUI Arbetsflöde: Bild-till-Bild 🖼️

Arbetsflödet Bild-till-Bild genererar en bild baserat på en prompt och en ingångsbild. Prova själv!

För att använda arbetsflödet Bild-till-Bild:

  1. Välj checkpoint-modellen.
  2. Ladda upp bilden som en bildprompt.
  3. Revidera de positiva och negativa promptarna.
  4. Justera eventuellt denoise (avbrusningsstyrka) i KSampler-noden.
  5. Tryck på Queue Prompt för att starta genereringen.
ComfyUI workflow: image to image

För fler premium ComfyUI arbetsflöden, besök vår 🌟ComfyUI Arbetsflödeslista🌟

4. ComfyUI SDXL 🚀

Tack vare dess extrema konfigurerbarhet är ComfyUI en av de första GUI:erna som stöder Stable Diffusion XL-modellen. Låt oss prova!

För att använda arbetsflödet ComfyUI SDXL:

  1. Revidera de positiva och negativa promptarna.
  2. Tryck på Queue Prompt för att starta genereringen.

5. ComfyUI Inpainting 🎨

Låt oss dyka in i något mer komplext: inpainting! När du har en fantastisk bild men vill modifiera specifika delar är inpainting den bästa metoden. Prova här!

För att använda inpainting arbetsflödet:

  1. Ladda upp en bild du vill inpaint.
  2. Högerklicka på bilden och välj "Open in MaskEditor". Maskera området som ska återskapas, klicka sedan på "Save to node". ComfyUI workflow: inpainting
  3. Välj en Checkpoint-modell:
    • Detta arbetsflöde fungerar endast med en standard Stable Diffusion-modell, inte en Inpainting-modell.
    • Om du vill använda en inpainting-modell, vänligen byt "VAE Encode" och "Set Noise Latent Mask" noderna till "VAE Encode (Inpaint)" noden, som är specifikt utformad för inpainting-modeller.
  4. Anpassa inpainting-processen:
    • I CLIP Text Encode (Prompt) noden kan du ange ytterligare information för att styra inpaintingen. Till exempel kan du specificera stil, tema eller element du vill inkludera i inpainting-området.
  5. Ställ in den ursprungliga avbrusningsstyrkan (denoise), t.ex. 0.6.
  6. Tryck på Queue Prompt för att utföra inpaintingen.
ComfyUI inpainting workflow

6. ComfyUI Outpainting 🖌️

Outpainting är en annan spännande teknik som gör det möjligt att utöka dina bilder bortom deras ursprungliga gränser. 🌆 Det är som att ha en oändlig duk att arbeta med!

För att använda arbetsflödet ComfyUI Outpainting:

  1. Börja med en bild du vill utöka.
  2. Använd Pad Image for Outpainting noden till ditt arbetsflöde.
  3. Konfigurera outpainting-inställningarna:
    • vänster, topp, höger, botten: Specificera antalet pixlar att utöka i varje riktning.
    • feathering: Justera övergångens jämnhet mellan den ursprungliga bilden och outpainted-området. Högre värden skapar en mer gradvis övergång men kan introducera en suddningseffekt.
  4. Anpassa outpainting-processen:
    • I CLIP Text Encode (Prompt) noden kan du ange ytterligare information för att styra outpaintingen. Till exempel kan du specificera stil, tema eller element du vill inkludera i det utökade området.
    • Experimentera med olika promptar för att uppnå önskade resultat.
  5. Finjustera VAE Encode (för Inpainting) noden:
    • Justera grow_mask_by parametern för att kontrollera storleken på outpainting-masken. Ett värde större än 10 rekommenderas för optimala resultat.
  6. Tryck på Queue Prompt för att starta outpainting-processen.
ComfyUI outpainting workflow

För fler premium inpainting/outpainting arbetsflöden, besök vår 🌟ComfyUI Arbetsflödeslista🌟

7. ComfyUI Upscale ⬆️

Nästa, låt oss utforska ComfyUI upscale. Vi kommer att introducera tre grundläggande arbetsflöden för att hjälpa dig att förstora effektivt.

Det finns två huvudsakliga metoder för att förstora:

  1. Förstora pixel: Direkt förstora den synliga bilden.
    • Inmatning: bild, Utmatning: förstorad bild
  2. Förstora latent: Förstora den osynliga latenta rumsbilden.
    • Inmatning: latent, Utmatning: förstorad latent (kräver dekodning för att bli en synlig bild)

7.1. Förstora Pixel 🖼️

Två sätt att uppnå detta:

  1. Använda algoritmer: Snabbaste genereringshastigheten, men något sämre resultat jämfört med modeller.
  2. Använda modeller: Bättre resultat, men långsammare genereringstid.

7.1.1. Förstora Pixel med Algoritm 🧮

  • Lägg till Upscale Image by noden.
  • metod parameter: Välj förstoringsalgoritmen (bicubic, bilinear, nearest-exact).
  • Skala parameter: Specificera förstoringsfaktorn (t.ex. 2 för 2x).
ComfyUI Upscale Pixel by Algorithm

7.1.2. Förstora Pixel med Modell 🤖

  • Lägg till Upscale Image (using Model) noden.
  • Lägg till Load Upscale Model noden.
  • Välj en modell som passar din bildtyp (t.ex. anime eller verklighet).
  • Välj förstoringsfaktorn (X2 eller X4).
ComfyUI Upscale Pixel by Model

7.2. Förstora Latent ⚙️

En annan förstoringsmetod är Förstora Latent, även känd som Hi-res Latent Fix Upscale, som direkt förstorar i det latenta rummet.

ComfyUI Upscale Latent

7.3. Förstora Pixel vs. Förstora Latent 🆚

  • Förstora Pixel: Endast förstorar bilden utan att lägga till ny information. Snabbare generering, men kan ha en suddningseffekt och sakna detaljer.
  • Förstora Latent: Förutom att förstora ändrar det också en del av den ursprungliga bildinformationen, vilket berikar detaljer. Kan avvika från den ursprungliga bilden och har en långsammare genereringshastighet.

För fler premium återställnings-/förstoringsarbetsflöden, besök vår 🌟ComfyUI Arbetsflödeslista🌟

8. ComfyUI ControlNet 🎮

Förbered dig på att ta din AI-konst till nästa nivå med ControlNet, en banbrytande teknik som revolutionerar bildgenerering!

ControlNet är som en trollstav 🪄 som ger dig enastående kontroll över dina AI-genererade bilder. Det fungerar hand i hand med kraftfulla modeller som Stable Diffusion, vilket förbättrar deras kapaciteter och låter dig styra bildskapandeprocessen som aldrig förr!

Föreställ dig att kunna specificera kanterna, mänskliga poser, djup eller till och med segmenteringskartor av din önskade bild. 🌠 Med ControlNet kan du göra just det!

Om du är ivrig att dyka djupare in i ControlNets värld och frigöra dess fulla potential, har vi täckt dig. Kolla in vår detaljerade guide om att bemästra ControlNet i ComfyUI! 📚 Den är fullpackad med steg-för-steg-guider och inspirerande exempel för att hjälpa dig bli en ControlNet-proffs. 🏆

9. ComfyUI Manager 🛠️

ComfyUI Manager är en anpassad nod som låter dig installera och uppdatera andra anpassade noder via ComfyUI-gränssnittet. Du hittar Manager-knappen på Queue Prompt-menyn.

9.1. Hur Man Installerar Saknade Anpassade Noder 📥

Om ett arbetsflöde kräver anpassade noder som du inte har installerat, följ dessa steg:

  1. Klicka på Manager i Menyn.
  2. Klicka på Install Missing Custom Nodes.
  3. Starta om ComfyUI helt.
  4. Uppdatera webbläsaren.

9.2. Hur Man Uppdaterar Anpassade Noder 🔄

  1. Klicka på Manager i Menyn.
  2. Klicka på Fetch Updates (kan ta en stund).
  3. Klicka på Install Custom Nodes.
  4. Om en uppdatering är tillgänglig, kommer en Update-knapp att visas bredvid den installerade anpassade noden.
  5. Klicka på Update för att uppdatera noden.
  6. Starta om ComfyUI.
  7. Uppdatera webbläsaren.
ComfyUI Manager

9.3. Hur Man Laddar Anpassade Noder i Ditt Arbetsflöde 🔍

Dubbelklicka på ett tomt område för att få upp en meny för att söka efter noder.

ComfyUI Manager

10. ComfyUI Embeddings 📝

Inbäddningar, även kända som textuell inversion, är en kraftfull funktion i ComfyUI som låter dig injicera anpassade koncept eller stilar i dina AI-genererade bilder. 💡 Det är som att lära AI ett nytt ord eller fras och associera det med specifika visuella egenskaper.

För att använda inbäddningar i ComfyUI, skriv helt enkelt "embedding:" följt av namnet på din inbäddning i den positiva eller negativa promptboxen. Till exempel:

embedding: BadDream

ComfyUI Embeddings

När du använder denna prompt kommer ComfyUI att söka efter en inbäddningsfil med namnet "BadDream" i ComfyUI > models > embeddings mappen. 📂 Om den hittar en matchning, kommer den att tillämpa de motsvarande visuella egenskaperna på din genererade bild.

Inbäddningar är ett utmärkt sätt att personifiera din AI-konst och uppnå specifika stilar eller estetik. 🎨 Du kan skapa dina egna inbäddningar genom att träna dem på en uppsättning bilder som representerar det önskade konceptet eller stilen.

10.1. Inbäddning med Autocomplete 🔠

Att komma ihåg de exakta namnen på dina inbäddningar kan vara besvärligt, särskilt om du har en stor samling. 😅 Där kommer ComfyUI-Custom-Scripts anpassade nod till undsättning!

För att aktivera inbäddningsnamns-autocomplete:

  1. Öppna ComfyUI Manager genom att klicka på "Manager" i toppmenyn.
  2. Gå till "Install Custom nodes" och sök efter "ComfyUI-Custom-Scripts".
  3. Klicka på "Install" för att lägga till den anpassade noden till din ComfyUI-installation.
  4. Starta om ComfyUI för att tillämpa ändringarna.

När du har installerat ComfyUI-Custom-Scripts noden, kommer du att uppleva ett mer användarvänligt sätt att använda inbäddningar. 😊 Skriv helt enkelt "embedding:" i en promptbox, och en lista över tillgängliga inbäddningar kommer att visas. Du kan sedan välja den önskade inbäddningen från listan, vilket sparar tid och ansträngning!

10.2. Inbäddningsvikt ⚖️

Visste du att du kan kontrollera styrkan hos dina inbäddningar? 💪 Eftersom inbäddningar i huvudsak är nyckelord, kan du tillämpa vikter på dem precis som du skulle göra med vanliga nyckelord i dina promptar.

För att justera vikten av en inbäddning, använd följande syntax:

(embedding: BadDream:1.2)

I detta exempel ökas vikten av "BadDream" inbäddningen med 20%. Så högre vikter (t.ex. 1.2) gör inbäddningen mer framträdande, medan lägre vikter (t.ex. 0.8) minskar dess inflytande. 🎚️ Detta ger dig ännu mer kontroll över det slutliga resultatet!

11. ComfyUI LoRA 🧩

LoRA, kort för Low-rank Adaptation, är en annan spännande funktion i ComfyUI som låter dig modifiera och finjustera dina checkpoint-modeller. 🎨 Det är som att lägga till en liten, specialiserad modell ovanpå din basmodell för att uppnå specifika stilar eller införliva anpassade element.

LoRA-modeller är kompakta och effektiva, vilket gör dem lätta att använda och dela. De används ofta för uppgifter som att modifiera den konstnärliga stilen på en bild eller injicera en specifik person eller objekt i det genererade resultatet.

När du tillämpar en LoRA-modell på en checkpoint-modell, modifierar den MODEL och CLIP-komponenterna medan den lämnar VAE (Variational Autoencoder) orörd. Detta innebär att LoRA fokuserar på att justera innehållet och stilen i bilden utan att ändra dess övergripande struktur.

11.1. Hur man använder LoRA 🔧

Att använda LoRA i ComfyUI är enkelt. Låt oss ta en titt på den enklaste metoden:

  1. Välj en checkpoint-modell som fungerar som bas för din bildgenerering.
  2. Välj en LoRA-modell som du vill tillämpa för att modifiera stilen eller införliva specifika element.
  3. Revidera de positiva och negativa promptarna för att styra bildgenereringsprocessen.
  4. Klicka på "Queue Prompt" för att starta genereringen av bilden med den tillämpade LoRA. ▶

ComfyUI kommer sedan att kombinera checkpoint-modellen och LoRA-modellen för att skapa en bild som återspeglar de angivna promptarna och införlivar de modifieringar som introducerats av LoRA.

11.2. Flera LoRAs 🧩🧩

Men vad händer om du vill tillämpa flera LoRAs på en enda bild? Inga problem! ComfyUI låter dig använda två eller flera LoRAs i samma text-till-bild arbetsflöde.

ComfyUI LoRA

Processen är liknande att använda en enda LoRA, men du behöver välja flera LoRA-modeller istället för bara en. ComfyUI kommer att tillämpa LoRAs sekventiellt, vilket innebär att varje LoRA bygger vidare på de modifieringar som introducerats av den föregående.

Detta öppnar en värld av möjligheter för att kombinera olika stilar, element och modifieringar i dina AI-genererade bilder. 🌍💡 Experimentera med olika LoRA-kombinationer för att uppnå unika och kreativa resultat!

12. Genvägar och Tips för ComfyUI ⌨️🖱️

12.1. Kopiera och Klistra In 📋

  • Välj en nod och tryck Ctrl+C för att kopiera.
  • Tryck Ctrl+V för att klistra in.
  • Tryck Ctrl+Shift+V för att klistra in med inmatningsanslutningar intakta.

12.2. Flytta Flera Noder 🖱️

  • Skapa en grupp för att flytta en uppsättning noder tillsammans.
  • Alternativt, håll ner Ctrl och dra för att skapa en ruta för att välja flera noder eller håll ner Ctrl för att välja flera noder individuellt.
  • För att flytta de valda noderna, håll ner Shift och flytta musen.

12.3. Passera en Nod 🔇

  • Tillfälligt inaktivera en nod genom att stänga av den. Välj en nod och tryck Ctrl+M.
  • Det finns ingen tangentbordsgenväg för att stänga av en grupp. Välj Bypass Group Node i högerklicksmenyn eller stäng av den första noden i gruppen för att inaktivera den.

12.4. Minimera en Nod 🔍

  • Klicka på punkten i det övre vänstra hörnet av noden för att minimera den.

12.5. Generera Bild ▶️

  • Tryck Ctrl+Enter för att sätta arbetsflödet i kön och generera bilder.

12.6. Inbäddat Arbetsflöde 🖼️

  • ComfyUI sparar hela arbetsflödet i metadata i PNG-filen den genererar. För att ladda arbetsflödet, dra och släpp bilden i ComfyUI.

12.7. Fixa Frön för att Spara Tid ⏰

  • ComfyUI kör endast om en nod om inmatningen ändras. När du arbetar med en lång kedja av noder, spara tid genom att fixa fröet för att undvika att generera om uppströmsresultat.

13. ComfyUI Online 🚀

Grattis till att ha avslutat denna nybörjarguide till ComfyUI! 🙌 Du är nu redo att dyka in i den spännande världen av AI-konstskapande. Men varför krångla med installation när du kan börja skapa direkt? 🤔

På RunComfy har vi gjort det enkelt för dig att använda ComfyUI online utan någon installation. Vår ComfyUI Online-tjänst kommer förladdad med över 200 populära noder och modeller, tillsammans med 50+ fantastiska arbetsflöden för att inspirera dina skapelser.

🌟 Oavsett om du är nybörjare eller en erfaren AI-konstnär, har RunComfy allt du behöver för att förverkliga dina konstnärliga visioner. 💡 Vänta inte längre – prova ComfyUI Online nu och upplev kraften i AI-konstskapande vid dina fingertoppar! 🚀

RunComfy

© Copyright 2024 RunComfy. Alla Rättigheter Förbehållna.

RunComfy är den främsta ComfyUI plattform, som erbjuder ComfyUI online miljö och tjänster, tillsammans med ComfyUI arbetsflöden med fantastiska visuella.