Updated: 5/28/2024
Hej, AI-kunstnere! 👋 Velkommen til vores begynder-venlige tutorial om ComfyUI, et utroligt kraftfuldt og fleksibelt værktøj til at skabe fantastiske AI-genererede kunstværker. 🎨 I denne guide vil vi gennemgå grundlæggende i ComfyUI, udforske dets funktioner og hjælpe dig med at låse op for dets potentiale til at tage din AI-kunst til næste niveau. 🚀
Vi vil dække:
ComfyUI er som at have en tryllestav 🪄 til at skabe fantastiske, AI-genererede kunstværker med lethed. I sin kerne er ComfyUI en node-baseret grafisk brugergrænseflade (GUI) bygget oven på Stable Diffusion, en topmoderne dyb læringsmodel, der genererer billeder fra tekstbeskrivelser. 🌟 Men det, der gør ComfyUI virkelig speciel, er, hvordan det giver kunstnere som dig mulighed for at frigøre din kreativitet og bringe dine vildeste ideer til live.
Forestil dig et digitalt lærred, hvor du kan konstruere dine egne unikke billedgenereringsarbejdsgange ved at forbinde forskellige noder, hver repræsenterende en specifik funktion eller operation. 🧩 Det er som at bygge en visuel opskrift på dine AI-genererede mesterværker!
Vil du generere et billede fra bunden ved hjælp af en tekstprompt? Der er en node til det! Har du brug for at anvende en bestemt sampler eller finjustere støjniveauet? Tilføj blot de tilsvarende noder og se magien ske. ✨
Men her er det bedste: ComfyUI opdeler arbejdsgangen i omarrangerbare elementer, hvilket giver dig friheden til at skabe dine egne tilpassede arbejdsgange, der er skræddersyet til din kunstneriske vision. 🖼️ Det er som at have et personligt værktøjssæt, der tilpasser sig din kreative proces.
AUTOMATIC1111 er standard GUI for Stable Diffusion. Så skal du bruge ComfyUI i stedet? Lad os sammenligne:
✅ Fordele ved at bruge ComfyUI:
❌ Ulemper ved at bruge ComfyUI:
Vi mener, at den bedste måde at lære ComfyUI på er ved at dykke ned i eksempler og opleve det førstehånds. 🙌 Derfor har vi skabt denne unikke tutorial, der adskiller sig fra andre. I denne tutorial finder du en detaljeret, trin-for-trin guide, som du kan følge med i.
Men her er det bedste: 🌟 Vi har integreret ComfyUI direkte på denne webside! Du vil kunne interagere med ComfyUI eksempler i realtid, mens du skrider frem gennem guiden.🌟 Lad os dykke ind!
Lad os begynde med den enkleste sag: at generere et billede fra tekst. Klik på Queue Prompt for at køre arbejdsgangen. Efter en kort ventetid skulle du se dit første genererede billede! For at tjekke din kø, skal du blot klikke på View Queue.
Her er en standard tekst-til-billede arbejdsgang for dig at prøve:
ComfyUI arbejdsgangen består af to grundlæggende byggeklodser: Noder og Kanter.
Først skal du vælge en Stable Diffusion Checkpoint model i Load Checkpoint node. Klik på modelnavnet for at se tilgængelige modeller. Hvis klik på modelnavnet ikke gør noget, skal du muligvis uploade en brugerdefineret model.
Du vil se to noder mærket CLIP Text Encode (Prompt). Den øverste prompt er forbundet til positiv input af KSampler node, mens den nederste prompt er forbundet til negativ input. Så indtast din positive prompt i den øverste og din negative prompt i den nederste.
CLIP Text Encode node konverterer prompten til tokens og koder dem til embeddings ved hjælp af tekstkoder.
💡 Tip: Brug (keyword:weight) syntaks til at kontrollere vægten af et nøgleord, f.eks. (keyword:1.2) for at øge dets effekt eller (keyword:0.8) for at mindske det.
Klik på Queue Prompt for at køre arbejdsgangen. Efter en kort ventetid vil dit første billede blive genereret!
Kraften i ComfyUI ligger i dets konfigurerbarhed. Forståelse af, hvad hver node gør, giver dig mulighed for at tilpasse dem til dine behov. Men før vi dykker ned i detaljerne, lad os tage et kig på Stable Diffusion processen for bedre at forstå, hvordan ComfyUI fungerer.
Stable Diffusion processen kan opsummeres i tre hovedtrin:
Nu hvor vi har en overordnet forståelse af Stable Diffusion processen, lad os dykke ned i nøglekomponenterne og noderne i ComfyUI, der gør denne proces mulig.
Load Checkpoint node i ComfyUI er afgørende for valg af en Stable Diffusion model. En Stable Diffusion model består af tre hovedkomponenter: MODEL, CLIP og VAE. Lad os udforske hver komponent og dens forhold til de tilsvarende noder i ComfyUI.
Det er vigtigt at bemærke, at VAE er en separat komponent fra CLIP sprogmodellen. Mens CLIP fokuserer på at behandle tekstprompts, håndterer VAE konverteringen mellem pixel- og latentrum.
CLIP Text Encode node i ComfyUI er ansvarlig for at tage de brugerleverede prompts og føde dem ind i CLIP sprogmodellen. CLIP er en kraftfuld sprogmodel, der forstår den semantiske betydning af ord og kan associere dem med visuelle koncepter. Når en prompt indtastes i CLIP Text Encode node, gennemgår den en transformationsproces, hvor hvert ord konverteres til embeddings. Disse embeddings er høj-dimensionelle vektorer, der fanger de semantiske informationer af ordene. Ved at transformere prompts til embeddings gør CLIP det muligt for MODEL at generere billeder, der nøjagtigt afspejler betydningen og hensigten med de givne prompts.
I tekst-til-billede-processen starter genereringen med et tilfældigt billede i det latente rum. Dette tilfældige billede fungerer som den indledende tilstand for MODEL at arbejde med. Størrelsen af det latente billede er proportional med den faktiske billedstørrelse i pixelrummet. I ComfyUI kan du justere højden og bredden af det latente billede for at kontrollere størrelsen af det genererede billede. Derudover kan du indstille batchstørrelsen til at bestemme antallet af billeder, der genereres i hver kørsel.
De optimale størrelser for latente billeder afhænger af den specifikke Stable Diffusion model, der bruges. For SD v1.5 modeller anbefales størrelserne 512x512 eller 768x768, mens for SDXL modeller er den optimale størrelse 1024x1024. ComfyUI tilbyder en række almindelige billedformater at vælge imellem, såsom 1:1 (kvadrat), 3:2 (landskab), 2:3 (portræt), 4:3 (landskab), 3:4 (portræt), 16:9 (widescreen) og 9:16 (vertikal). Det er vigtigt at bemærke, at bredden og højden af det latente billede skal være deleligt med 8 for at sikre kompatibilitet med modellens arkitektur.
VAE (Variational AutoEncoder) er en afgørende komponent i Stable Diffusion modellen, der håndterer konverteringen af billeder mellem pixelrummet og det latente rum. Den består af to hoveddele: en Billedencoder og en Billeddecoder.
Billedencoderen tager et billede i pixelrummet og komprimerer det til en lavere dimensionel latent repræsentation. Denne kompressionsproces reducerer dataens størrelse betydeligt, hvilket muliggør mere effektiv behandling og lagring. For eksempel kan et billede på 512x512 pixels komprimeres ned til en latent repræsentation på 64x64.
På den anden hånd, er Billeddecoderen, også kendt som VAE Decoder, ansvarlig for at rekonstruere billedet fra den latente repræsentation tilbage til pixelrummet. Den tager den komprimerede latente repræsentation og udvider den for at generere det endelige billede.
Brugen af en VAE tilbyder flere fordele:
Der er dog også nogle ulemper at overveje:
På trods af disse begrænsninger spiller VAE en vital rolle i Stable Diffusion modellen ved at muliggøre effektiv konvertering mellem pixelrummet og det latente rum, hvilket letter hurtigere generering og mere præcis kontrol over de genererede billeder.
KSampler node i ComfyUI er hjertet af billedgenereringsprocessen i Stable Diffusion. Den er ansvarlig for at denoise det tilfældige billede i det latente rum for at matche den brugerleverede prompt. KSampler anvender en teknik kaldet omvendt diffusion, hvor den iterativt forfiner den latente repræsentation ved at fjerne støj og tilføje meningsfulde detaljer baseret på vejledningen fra CLIP embeddings.
KSampler noden tilbyder flere parametre, der tillader brugere at finjustere billedgenereringsprocessen:
Seed: Seed-værdien kontrollerer den indledende støj og sammensætning af det endelige billede. Ved at indstille en specifik seed kan brugere opnå reproducerbare resultater og opretholde konsistens på tværs af flere generationer.
Control_after_generation: Denne parameter bestemmer, hvordan seed-værdien ændres efter hver generation. Den kan indstilles til at randomisere (generere en ny tilfældig seed for hver kørsel), inkrementere (øge seed-værdien med 1), dekrementere (sænke seed-værdien med 1) eller fast (holde seed-værdien konstant).
Step: Antallet af samplingstrin bestemmer intensiteten af forfiningsprocessen. Højere værdier resulterer i færre artefakter og mere detaljerede billeder, men øger også genereringstiden.
Sampler_name: Denne parameter tillader brugere at vælge den specifikke samplingalgoritme, der bruges af KSampler. Forskellige samplingalgoritmer kan give lidt forskellige resultater og have varierende genereringshastigheder.
Scheduler: Scheduler kontrollerer, hvordan støjniveauet ændres ved hvert trin af denoising-processen. Den bestemmer hastigheden, hvormed støj fjernes fra den latente repræsentation.
Denoise: Denoise-parameteren indstiller mængden af indledende støj, der skal fjernes ved denoising-processen. En værdi på 1 betyder, at al støj vil blive fjernet, hvilket resulterer i et rent og detaljeret billede.
Ved at justere disse parametre kan du finjustere billedgenereringsprocessen for at opnå de ønskede resultater.
Hos RunComfy har vi skabt den ultimative ComfyUI online oplevelse kun for dig. Sig farvel til komplicerede installationer! 🎉 Prøv ComfyUI Online nu og frigør dit kunstneriske potentiale som aldrig før! 🎉
Billede-til-Billede arbejdsgangen genererer et billede baseret på en prompt og et inputbillede. Prøv det selv!
For at bruge Billede-til-Billede arbejdsgangen:
For flere premium ComfyUI arbejdsgange, besøg vores 🌟ComfyUI Workflow List🌟
Takket være dets ekstreme konfigurerbarhed er ComfyUI en af de første GUI'er til at understøtte Stable Diffusion XL-modellen. Lad os prøve det!
For at bruge ComfyUI SDXL arbejdsgangen:
Lad os dykke ned i noget mere komplekst: inpainting! Når du har et fantastisk billede men ønsker at ændre specifikke dele, er inpainting den bedste metode. Prøv det her!
For at bruge inpainting arbejdsgangen:
Outpainting er en anden spændende teknik, der giver dig mulighed for at udvide dine billeder ud over deres oprindelige grænser. 🌆 Det er som at have et uendeligt lærred at arbejde med!
For at bruge ComfyUI Outpainting arbejdsgangen:
For flere premium inpainting/outpainting arbejdsgange, besøg vores 🌟ComfyUI Workflow List🌟
Lad os derefter udforske ComfyUI opskalering. Vi vil introducere tre grundlæggende arbejdsgange for at hjælpe dig med at opskalere effektivt.
Der er to hovedmetoder til opskalering:
To måder at opnå dette på:
En anden opskaleringsmetode er Opskalering Latent, også kendt som Hi-res Latent Fix Opskalering, som direkte opskalerer i det latente rum.
For flere premium restore/opskalering arbejdsgange, besøg vores 🌟ComfyUI Workflow List🌟
Gør dig klar til at tage din AI-kunst til det næste niveau med ControlNet, en banebrydende teknologi, der revolutionerer billedgenerering!
ControlNet er som en tryllestav 🪄, der giver dig enestående kontrol over dine AI-genererede billeder. Det arbejder hånd i hånd med kraftful de modeller som Stable Diffusion, og forbedrer deres egenskaber og giver dig mulighed for at vejlede billedskabelsesprocessen som aldrig før!
Forestil dig at kunne specificere kanterne, menneskelige positurer, dybden eller endda segmenteringskortene af dit ønskede billede. 🌠 Med ControlNet kan du gøre netop det!
Hvis du er ivrig efter at dykke dybere ned i ControlNets verden og udløse dets fulde potentiale, har vi dig dækket. Tjek vores detaljerede tutorial om mastering ControlNet in ComfyUI! 📚 Den er fyldt med trin-for-trin guider og inspirerende eksempler for at hjælpe dig med at blive en ControlNet ekspert. 🏆
ComfyUI Manager er en brugerdefineret node, der giver dig mulighed for at installere og opdatere andre brugerdefinerede noder gennem ComfyUI-grænsefladen. Du finder Manager-knappen i Queue Prompt-menuen.
Hvis en arbejdsgang kræver brugerdefinerede noder, som du ikke har installeret, skal du følge disse trin:
Dobbeltklik på et hvilket som helst tomt område for at frembringe en menu til at søge efter noder.
Embeddings, også kendt som tekstuel inversion, er en kraftfuld funktion i ComfyUI, der giver dig mulighed for at injicere brugerdefinerede koncepter eller stilarter i dine AI-genererede billeder. 💡 Det er som at lære AI'en et nyt ord eller udtryk og associere det med specifikke visuelle karakteristika.
For at bruge embeddings i ComfyUI skal du blot skrive "embedding:" efterfulgt af navnet på din embedding i den positive eller negative promptboks. For eksempel:
embedding: BadDream
Når du bruger denne prompt, vil ComfyUI søge efter en embedding-fil ved navn "BadDream" i ComfyUI > models > embeddings mappen. 📂 Hvis den finder et match, vil den anvende de tilsvarende visuelle karakteristika på dit genererede billede.
Embeddings er en fantastisk måde at personliggøre din AI-kunst og opnå specifikke stilarter eller æstetikker. 🎨 Du kan skabe dine egne embeddings ved at træne dem på et sæt billeder, der repræsenterer det ønskede koncept eller stil.
At huske de nøjagtige navne på dine embeddings kan være en besvær, især hvis du har en stor samling. 😅 Her kommer ComfyUI-Custom-Scripts brugerdefinerede node til undsætning!
For at aktivere embedding-navne autocomplete:
Når du har installeret ComfyUI-Custom-Scripts noden, vil du opleve en mere brugervenlig måde at bruge embeddings på. 😊 Begynd blot at skrive "embedding:" i en promptboks, og en liste over tilgængelige embeddings vil dukke op. Du kan derefter vælge den ønskede embedding fra listen, hvilket sparer dig tid og kræfter!
Vidste du, at du kan kontrollere styrken af dine embeddings? 💪 Da embeddings i det væsentlige er nøgleord, kan du anvende vægte på dem, ligesom du ville med almindelige nøgleord i dine prompts.
For at justere vægten af en embedding, brug følgende syntaks:
(embedding: BadDream:1.2)
I dette eksempel er vægten af "BadDream" embedding øget med 20%. Så højere vægte (f.eks. 1.2) vil gøre embedding mere fremtrædende, mens lavere vægte (f.eks. 0.8) vil mindske dens indflydelse. 🎚️ Dette giver dig endnu mere kontrol over det endelige resultat!
LoRA, kort for Low-rank Adaptation, er en anden spændende funktion i ComfyUI, der giver dig mulighed for at modificere og finjustere dine checkpoint-modeller. 🎨 Det er som at tilføje en lille, specialiseret model oven på din basismodel for at opnå specifikke stilarter eller inkorporere brugerdefinerede elementer.
LoRA-modeller er kompakte og effektive, hvilket gør dem nemme at bruge og dele. De bruges ofte til opgaver som at ændre den kunstneriske stil af et billede eller injicere en specifik person eller objekt i det genererede resultat.
Når du anvender en LoRA-model på en checkpoint-model, modificerer den MODEL og CLIP komponenterne, mens den lader VAE (Variational Autoencoder) være urørt. Dette betyder, at LoRA fokuserer på at justere indholdet og stilen af billedet uden at ændre dets overordnede struktur.
At bruge LoRA i ComfyUI er ligetil. Lad os tage et kig på den enkleste metode:
ComfyUI vil derefter kombinere checkpoint-modellen og LoRA-modellen for at skabe et billede, der afspejler de specificerede prompts og inkorporerer de modificeringer, der er introduceret af LoRA.
Men hvad nu hvis du vil anvende flere LoRAs på et enkelt billede? Intet problem! ComfyUI giver dig mulighed for at bruge to eller flere LoRAs i den samme tekst-til-billede arbejdsgang.
Processen ligner brugen af en enkelt LoRA, men du skal vælge flere LoRA-modeller i stedet for kun én. ComfyUI vil anvende LoRAs sekventielt, hvilket betyder, at hver LoRA vil bygge videre på de modificeringer, der er introduceret af den foregående.
Dette åbner en verden af muligheder for at kombinere forskellige stilarter, elementer og modificeringer i dine AI-genererede billeder. 🌍💡 Eksperimenter med forskellige LoRA-kombinationer for at opnå unikke og kreative resultater!
Tillykke med at have gennemført denne begyndervejledning til ComfyUI! 🙌 Du er nu klar til at dykke ned i den spændende verden af AI-kunstskabelse. Men hvorfor besvære dig med installation, når du kan begynde at skabe med det samme? 🤔
Hos RunComfy har vi gjort det enkelt for dig at bruge ComfyUI online uden nogen opsætning. Vores ComfyUI Online service kommer forudindlæst med over 200 populære noder og modeller, sammen med 50+ fantastiske arbejdsgange for at inspirere dine kreationer.
🌟 Uanset om du er nybegynder eller erfaren AI-kunstner, har RunComfy alt, hvad du behøver for at bringe dine kunstneriske visioner til live. 💡 Vent ikke længere – prøv ComfyUI Online nu og oplev kraften i AI-kunstskabelse lige ved hånden! 🚀
© Ophavsret 2024 RunComfy. Alle rettigheder forbeholdes.