Updated: 5/27/2024
Hej, kära AI-konstnärer! 👋 Välkommen till vår nybörjarvänliga guide om ComfyUI, ett otroligt kraftfullt och flexibelt verktyg för att skapa fantastiska AI-genererade konstverk. 🎨 I denna guide kommer vi att gå igenom grunderna i ComfyUI, utforska dess funktioner och hjälpa dig att låsa upp dess potential för att ta din AI-konst till nästa nivå. 🚀
Vi kommer att täcka:
ComfyUI är som att ha en trollstav 🪄 för att skapa fantastiska, AI-genererade konstverk med lätthet. I sin kärna är ComfyUI ett nodbaserat grafiskt användargränssnitt (GUI) byggt ovanpå Stable Diffusion, en toppmodern djupinlärningsmodell som genererar bilder från textbeskrivningar. 🌟 Men det som gör ComfyUI verkligen speciellt är hur det ger konstnärer som du möjlighet att frigöra din kreativitet och förverkliga dina vildaste idéer.
Föreställ dig en digital duk där du kan konstruera dina egna unika bildgenereringsarbetsflöden genom att ansluta olika noder, var och en representerande en specifik funktion eller operation. 🧩 Det är som att bygga ett visuellt recept för dina AI-genererade mästerverk!
Vill du generera en bild från grunden med hjälp av en textprompt? Det finns en nod för det! Behöver du applicera en specifik sampler eller finjustera brusnivån? Lägg bara till de motsvarande noderna och se magin hända. ✨
Men här är det bästa: ComfyUI bryter ner arbetsflödet i omarrangerbara element, vilket ger dig friheten att skapa dina egna anpassade arbetsflöden skräddarsydda efter din konstnärliga vision. 🖼️ Det är som att ha en personlig verktygslåda som anpassar sig till din kreativa process.
AUTOMATIC1111 är standard-GUI för Stable Diffusion. Så, ska du använda ComfyUI istället? Låt oss jämföra:
✅ Fördelar med att använda ComfyUI:
❌ Nackdelar med att använda ComfyUI:
Vi tror att det bästa sättet att lära sig ComfyUI är att dyka in i exempel och uppleva det själv. 🙌 Därför har vi skapat denna unika guide som skiljer sig från andra. I denna guide hittar du en detaljerad, steg-för-steg-guide som du kan följa med.
Men här är det bästa: 🌟 Vi har integrerat ComfyUI direkt på denna webbsida! Du kommer att kunna interagera med ComfyUI-exempel i realtid medan du går igenom guiden.🌟 Låt oss dyka in!
Låt oss börja med det enklaste fallet: att generera en bild från text. Klicka på Queue Prompt för att köra arbetsflödet. Efter en kort väntan bör du se din första genererade bild! För att kontrollera din kö, klicka bara på View Queue.
Här är ett standard text-till-bild arbetsflöde för dig att prova:
ComfyUI-arbetsflödet består av två grundläggande byggstenar: Noder och Kanter.
Först, välj en Stable Diffusion Checkpoint-modell i Load Checkpoint noden. Klicka på modellnamnet för att visa tillgängliga modeller. Om ingenting händer när du klickar på modellnamnet, kan du behöva ladda upp en anpassad modell.
Du kommer att se två noder märkta CLIP Text Encode (Prompt). Den översta prompten är ansluten till positiv ingång på KSampler-noden, medan den nedre prompten är ansluten till negativ ingång. Så ange din positiva prompt i den översta och din negativa prompt i den nedre.
CLIP Text Encode noden konverterar prompten till tokens och kodar dem till inbäddningar med hjälp av textkodaren.
💡 Tips: Använd (nyckelord:vikt) syntax för att kontrollera vikten av ett nyckelord, t.ex. (nyckelord:1.2) för att öka dess effekt eller (nyckelord:0.8) för att minska den.
Klicka på Queue Prompt för att köra arbetsflödet. Efter en kort väntan kommer din första bild att genereras!
ComfyUIs kraft ligger i dess konfigurerbarhet. Att förstå vad varje nod gör låter dig skräddarsy dem efter dina behov. Men innan vi dyker in i detaljerna, låt oss ta en titt på Stable Diffusion-processen för att bättre förstå hur ComfyUI fungerar.
Stable Diffusion-processen kan sammanfattas i tre huvudsteg:
Nu när vi har en hög nivå förståelse för Stable Diffusion-processen, låt oss dyka in i de viktigaste komponenterna och noderna i ComfyUI som gör denna process möjlig.
Ladda Checkpoint-noden i ComfyUI är avgörande för att välja en Stable Diffusion-modell. En Stable Diffusion-modell består av tre huvudkomponenter: MODEL, CLIP och VAE. Låt oss utforska varje komponent och dess relation till motsvarande noder i ComfyUI.
Det är viktigt att notera att VAE är en separat komponent från CLIP-språkmodellen. Medan CLIP fokuserar på att bearbeta textpromptar, hanterar VAE konverteringen mellan pixel- och latentrum.
CLIP Text Encode-noden i ComfyUI är ansvarig för att ta de användartillhandahållna promptarna och mata in dem i CLIP-språkmodellen. CLIP är en kraftfull språkmodell som förstår de semantiska betydelserna av ord och kan associera dem med visuella koncept. När en prompt matas in i CLIP Text Encode-noden genomgår den en transformationsprocess där varje ord omvandlas till inbäddningar. Dessa inbäddningar är högdimensionella vektorer som fångar den semantiska informationen i orden. Genom att omvandla promptarna till inbäddningar möjliggör CLIP för MODEL att generera bilder som exakt återspeglar betydelsen och avsikten med de givna promptarna.
I text-till-bild-processen börjar genereringen med en slumpmässig bild i det latenta rummet. Denna slumpmässiga bild fungerar som det initiala tillståndet för MODEL att arbeta med. Storleken på den latenta bilden är proportionell mot den faktiska bildstorleken i pixelrummet. I ComfyUI kan du justera höjden och bredden på den latenta bilden för att kontrollera storleken på den genererade bilden. Dessutom kan du ställa in batchstorleken för att bestämma antalet bilder som genereras i varje körning.
De optimala storlekarna för latenta bilder beror på den specifika Stable Diffusion-modellen som används. För SD v1.5-modeller rekommenderas storlekarna 512x512 eller 768x768, medan för SDXL-modeller är den optimala storleken 1024x1024. ComfyUI tillhandahåller en rad vanliga bildförhållanden att välja mellan, som 1:1 (kvadratisk), 3:2 (landskap), 2:3 (porträtt), 4:3 (landskap), 3:4 (porträtt), 16:9 (widescreen) och 9:16 (vertikal). Det är viktigt att notera att bredden och höjden på den latenta bilden måste vara delbara med 8 för att säkerställa kompatibilitet med modellens arkitektur.
VAE (Variational AutoEncoder) är en avgörande komponent i Stable Diffusion-modellen som hanterar konverteringen av bilder mellan pixelrummet och det latenta rummet. Den består av två huvuddelar: en Bildkodare och en Bilddekoder.
Bildkodaren tar en bild i pixelrummet och komprimerar den till en lägre dimensionell latent representation. Denna komprimeringsprocess minskar avsevärt datastorleken, vilket möjliggör mer effektiv bearbetning och lagring. Till exempel kan en bild med storleken 512x512 pixlar komprimeras till en latent representation med storleken 64x64.
Å andra sidan är Bilddekodaren, även känd som VAE Dekodern, ansvarig för att rekonstruera bilden från den latenta representationen tillbaka till pixelrummet. Den tar den komprimerade latenta representationen och expanderar den för att generera den slutliga bilden.
Att använda en VAE erbjuder flera fördelar:
Men det finns också några nackdelar att överväga:
Trots dessa begränsningar spelar VAE en viktig roll i Stable Diffusion-modellen genom att möjliggöra effektiv konvertering mellan pixelrummet och det latenta rummet, vilket underlättar snabbare generering och mer exakt kontroll över de genererade bilderna.
KSampler-noden i ComfyUI är hjärtat av bildgenereringsprocessen i Stable Diffusion. Den är ansvarig för att avbrusa den slumpmässiga bilden i det latenta rummet för att matcha den användartillhandahållna prompten. KSampler använder en teknik som kallas omvänd diffusion, där den iterativt förfinar den latenta representationen genom att ta bort brus och lägga till meningsfulla detaljer baserat på vägledningen från CLIP-inbäddningarna.
KSampler-noden erbjuder flera parametrar som gör det möjligt för användare att finjustera bildgenereringsprocessen:
Frö: Frövärdet styr det initiala bruset och kompositionen av den slutliga bilden. Genom att ställa in ett specifikt frö kan användare uppnå reproducerbara resultat och bibehålla konsistens över flera generationer.
Control_after_generation: Denna parameter bestämmer hur frövärdet förändras efter varje generation. Det kan ställas in på randomisera (generera ett nytt slumpmässigt frö för varje körning), öka (öka frövärdet med 1), minska (minska frövärdet med 1) eller fast (behålla frövärdet konstant).
Steg: Antalet samplingssteg bestämmer intensiteten i förfiningsprocessen. Högre värden resulterar i färre artefakter och mer detaljerade bilder men ökar också genereringstiden.
Sampler_name: Denna parameter gör det möjligt för användare att välja den specifika samplingsalgoritmen som används av KSampler. Olika samplingsalgoritmer kan ge något olika resultat och ha varierande genereringshastigheter.
Scheduler: Schemaläggaren styr hur brusnivån förändras vid varje steg i avbrusningsprocessen. Den bestämmer hastigheten med vilken brus tas bort från den latenta representationen.
Denoise: Denoise-parametern ställer in mängden initialt brus som ska tas bort av avbrusningsprocessen. Ett värde på 1 betyder att allt brus kommer att tas bort, vilket resulterar i en ren och detaljerad bild.
Genom att justera dessa parametrar kan du finjustera bildgenereringsprocessen för att uppnå önskade resultat.
På RunComfy har vi skapat den ultimata ComfyUI online-upplevelsen bara för dig. Säg adjö till komplicerade installationer! 🎉 Prova ComfyUI Online nu och frigör din konstnärliga potential som aldrig förr! 🎉
Arbetsflödet Bild-till-Bild genererar en bild baserat på en prompt och en ingångsbild. Prova själv!
För att använda arbetsflödet Bild-till-Bild:
För fler premium ComfyUI arbetsflöden, besök vår 🌟ComfyUI Arbetsflödeslista🌟
Tack vare dess extrema konfigurerbarhet är ComfyUI en av de första GUI:erna som stöder Stable Diffusion XL-modellen. Låt oss prova!
För att använda arbetsflödet ComfyUI SDXL:
Låt oss dyka in i något mer komplext: inpainting! När du har en fantastisk bild men vill modifiera specifika delar är inpainting den bästa metoden. Prova här!
För att använda inpainting arbetsflödet:
Outpainting är en annan spännande teknik som gör det möjligt att utöka dina bilder bortom deras ursprungliga gränser. 🌆 Det är som att ha en oändlig duk att arbeta med!
För att använda arbetsflödet ComfyUI Outpainting:
För fler premium inpainting/outpainting arbetsflöden, besök vår 🌟ComfyUI Arbetsflödeslista🌟
Nästa, låt oss utforska ComfyUI upscale. Vi kommer att introducera tre grundläggande arbetsflöden för att hjälpa dig att förstora effektivt.
Det finns två huvudsakliga metoder för att förstora:
Två sätt att uppnå detta:
En annan förstoringsmetod är Förstora Latent, även känd som Hi-res Latent Fix Upscale, som direkt förstorar i det latenta rummet.
För fler premium återställnings-/förstoringsarbetsflöden, besök vår 🌟ComfyUI Arbetsflödeslista🌟
Förbered dig på att ta din AI-konst till nästa nivå med ControlNet, en banbrytande teknik som revolutionerar bildgenerering!
ControlNet är som en trollstav 🪄 som ger dig enastående kontroll över dina AI-genererade bilder. Det fungerar hand i hand med kraftfulla modeller som Stable Diffusion, vilket förbättrar deras kapaciteter och låter dig styra bildskapandeprocessen som aldrig förr!
Föreställ dig att kunna specificera kanterna, mänskliga poser, djup eller till och med segmenteringskartor av din önskade bild. 🌠 Med ControlNet kan du göra just det!
Om du är ivrig att dyka djupare in i ControlNets värld och frigöra dess fulla potential, har vi täckt dig. Kolla in vår detaljerade guide om att bemästra ControlNet i ComfyUI! 📚 Den är fullpackad med steg-för-steg-guider och inspirerande exempel för att hjälpa dig bli en ControlNet-proffs. 🏆
ComfyUI Manager är en anpassad nod som låter dig installera och uppdatera andra anpassade noder via ComfyUI-gränssnittet. Du hittar Manager-knappen på Queue Prompt-menyn.
Om ett arbetsflöde kräver anpassade noder som du inte har installerat, följ dessa steg:
Dubbelklicka på ett tomt område för att få upp en meny för att söka efter noder.
Inbäddningar, även kända som textuell inversion, är en kraftfull funktion i ComfyUI som låter dig injicera anpassade koncept eller stilar i dina AI-genererade bilder. 💡 Det är som att lära AI ett nytt ord eller fras och associera det med specifika visuella egenskaper.
För att använda inbäddningar i ComfyUI, skriv helt enkelt "embedding:" följt av namnet på din inbäddning i den positiva eller negativa promptboxen. Till exempel:
embedding: BadDream
När du använder denna prompt kommer ComfyUI att söka efter en inbäddningsfil med namnet "BadDream" i ComfyUI > models > embeddings mappen. 📂 Om den hittar en matchning, kommer den att tillämpa de motsvarande visuella egenskaperna på din genererade bild.
Inbäddningar är ett utmärkt sätt att personifiera din AI-konst och uppnå specifika stilar eller estetik. 🎨 Du kan skapa dina egna inbäddningar genom att träna dem på en uppsättning bilder som representerar det önskade konceptet eller stilen.
Att komma ihåg de exakta namnen på dina inbäddningar kan vara besvärligt, särskilt om du har en stor samling. 😅 Där kommer ComfyUI-Custom-Scripts anpassade nod till undsättning!
För att aktivera inbäddningsnamns-autocomplete:
När du har installerat ComfyUI-Custom-Scripts noden, kommer du att uppleva ett mer användarvänligt sätt att använda inbäddningar. 😊 Skriv helt enkelt "embedding:" i en promptbox, och en lista över tillgängliga inbäddningar kommer att visas. Du kan sedan välja den önskade inbäddningen från listan, vilket sparar tid och ansträngning!
Visste du att du kan kontrollera styrkan hos dina inbäddningar? 💪 Eftersom inbäddningar i huvudsak är nyckelord, kan du tillämpa vikter på dem precis som du skulle göra med vanliga nyckelord i dina promptar.
För att justera vikten av en inbäddning, använd följande syntax:
(embedding: BadDream:1.2)
I detta exempel ökas vikten av "BadDream" inbäddningen med 20%. Så högre vikter (t.ex. 1.2) gör inbäddningen mer framträdande, medan lägre vikter (t.ex. 0.8) minskar dess inflytande. 🎚️ Detta ger dig ännu mer kontroll över det slutliga resultatet!
LoRA, kort för Low-rank Adaptation, är en annan spännande funktion i ComfyUI som låter dig modifiera och finjustera dina checkpoint-modeller. 🎨 Det är som att lägga till en liten, specialiserad modell ovanpå din basmodell för att uppnå specifika stilar eller införliva anpassade element.
LoRA-modeller är kompakta och effektiva, vilket gör dem lätta att använda och dela. De används ofta för uppgifter som att modifiera den konstnärliga stilen på en bild eller injicera en specifik person eller objekt i det genererade resultatet.
När du tillämpar en LoRA-modell på en checkpoint-modell, modifierar den MODEL och CLIP-komponenterna medan den lämnar VAE (Variational Autoencoder) orörd. Detta innebär att LoRA fokuserar på att justera innehållet och stilen i bilden utan att ändra dess övergripande struktur.
Att använda LoRA i ComfyUI är enkelt. Låt oss ta en titt på den enklaste metoden:
ComfyUI kommer sedan att kombinera checkpoint-modellen och LoRA-modellen för att skapa en bild som återspeglar de angivna promptarna och införlivar de modifieringar som introducerats av LoRA.
Men vad händer om du vill tillämpa flera LoRAs på en enda bild? Inga problem! ComfyUI låter dig använda två eller flera LoRAs i samma text-till-bild arbetsflöde.
Processen är liknande att använda en enda LoRA, men du behöver välja flera LoRA-modeller istället för bara en. ComfyUI kommer att tillämpa LoRAs sekventiellt, vilket innebär att varje LoRA bygger vidare på de modifieringar som introducerats av den föregående.
Detta öppnar en värld av möjligheter för att kombinera olika stilar, element och modifieringar i dina AI-genererade bilder. 🌍💡 Experimentera med olika LoRA-kombinationer för att uppnå unika och kreativa resultat!
Grattis till att ha avslutat denna nybörjarguide till ComfyUI! 🙌 Du är nu redo att dyka in i den spännande världen av AI-konstskapande. Men varför krångla med installation när du kan börja skapa direkt? 🤔
På RunComfy har vi gjort det enkelt för dig att använda ComfyUI online utan någon installation. Vår ComfyUI Online-tjänst kommer förladdad med över 200 populära noder och modeller, tillsammans med 50+ fantastiska arbetsflöden för att inspirera dina skapelser.
🌟 Oavsett om du är nybörjare eller en erfaren AI-konstnär, har RunComfy allt du behöver för att förverkliga dina konstnärliga visioner. 💡 Vänta inte längre – prova ComfyUI Online nu och upplev kraften i AI-konstskapande vid dina fingertoppar! 🚀
© Copyright 2024 RunComfy. Alla Rättigheter Förbehållna.