Updated: 5/28/2024
Hei, AI-kunstnere! 👋 Velkommen til vår nybegynnervennlige tutorial om ComfyUI, et utrolig kraftig og fleksibelt verktøy for å skape fantastisk AI-generert kunstverk. 🎨 I denne guiden vil vi gå gjennom det grunnleggende i ComfyUI, utforske funksjonene, og hjelpe deg med å låse opp potensialet for å ta AI-kunsten din til neste nivå. 🚀
Vi vil dekke:
ComfyUI er som å ha en tryllestav 🪄 for å skape fantastisk, AI-generert kunst med letthet. I kjernen er ComfyUI et nodebasert grafisk brukergrensesnitt (GUI) bygget på toppen av Stable Diffusion, en toppmoderne dyp læringsmodell som genererer bilder fra tekstbeskrivelser. 🌟 Men det som gjør ComfyUI virkelig spesielt er hvordan det gir kunstnere som deg muligheten til å slippe løs kreativiteten og bringe de villeste ideene til liv.
Tenk deg et digitalt lerret der du kan konstruere dine egne unike bildegenereringsarbeidsflyter ved å koble sammen forskjellige noder, hver som representerer en spesifikk funksjon eller operasjon. 🧩 Det er som å bygge en visuell oppskrift for dine AI-genererte mesterverk!
Vil du generere et bilde fra bunnen av ved å bruke en tekstprompt? Det er en node for det! Trenger du å bruke en spesifikk sampler eller finjustere støynivået? Bare legg til de tilsvarende nodene og se magien skje. ✨
Men her er det beste: ComfyUI bryter ned arbeidsflyten i omarrangerbare elementer, noe som gir deg friheten til å lage dine egne tilpassede arbeidsflyter skreddersydd til din kunstneriske visjon. 🖼️ Det er som å ha et personlig verktøysett som tilpasser seg din kreative prosess.
AUTOMATIC1111 er standard GUI for Stable Diffusion. Så, bør du bruke ComfyUI i stedet? La oss sammenligne:
✅ Fordeler med å bruke ComfyUI:
❌ Ulemper med å bruke ComfyUI:
Vi tror at den beste måten å lære ComfyUI på er ved å dykke inn i eksempler og oppleve det på egen hånd. 🙌 Derfor har vi laget denne unike tutorialen som skiller seg ut fra andre. I denne tutorialen finner du en detaljert, trinn-for-trinn guide som du kan følge med på.
Men her er det beste: 🌟 Vi har integrert ComfyUI direkte i denne nettsiden! Du vil kunne interagere med ComfyUI eksempler i sanntid mens du går gjennom guiden.🌟 La oss dykke inn!
La oss begynne med den enkleste saken: generere et bilde fra tekst. Klikk Queue Prompt for å kjøre arbeidsflyten. Etter en kort ventetid, bør du se ditt første genererte bilde! For å sjekke køen din, klikk bare View Queue.
Her er en standard tekst-til-bilde arbeidsflyt for deg å prøve:
ComfyUI arbeidsflyten består av to grunnleggende byggeklosser: Noder og Kanter.
Først, velg en Stable Diffusion Checkpoint modell i Last inn Checkpoint noden. Klikk på modellnavnet for å se tilgjengelige modeller. Hvis klikk på modellnavnet ikke gjør noe, må du kanskje laste opp en egendefinert modell.
Du vil se to noder merket CLIP Tekst Koding (Prompt). Den øverste prompten er koblet til den positive inputen av KSampler noden, mens den nederste prompten er koblet til den negative inputen. Så skriv inn din positive prompt i den øverste og din negative prompt i den nederste.
CLIP Tekst Koding noden konverterer prompten til tokens og koder dem til embeddings ved hjelp av tekstkoderen.
💡 Tips: Bruk (nøkkelord:vekt) syntaks for å kontrollere vekten av et nøkkelord, f.eks., (nøkkelord:1.2) for å øke effekten eller (nøkkelord:0.8) for å redusere den.
Klikk Queue Prompt for å kjøre arbeidsflyten. Etter en kort ventetid, vil ditt første bilde bli generert!
Kraften i ComfyUI ligger i dens konfigurerbarhet. Å forstå hva hver node gjør lar deg tilpasse dem til dine behov. Men før vi dykker inn i detaljene, la oss ta en titt på Stable Diffusion-prosessen for å bedre forstå hvordan ComfyUI fungerer.
Stable Diffusion-prosessen kan oppsummeres i tre hovedtrinn:
Nå som vi har en overordnet forståelse av Stable Diffusion-prosessen, la oss dykke inn i nøkkelkomponentene og nodene i ComfyUI som gjør denne prosessen mulig.
Last inn Checkpoint noden i ComfyUI er avgjørende for å velge en Stable Diffusion modell. En Stable Diffusion modell består av tre hovedkomponenter: MODEL, CLIP, og VAE. La oss utforske hver komponent og deres forhold til de tilsvarende nodene i ComfyUI.
Det er viktig å merke seg at VAE er en separat komponent fra CLIP språkmodellen. Mens CLIP fokuserer på å behandle tekstprompter, håndterer VAE konverteringen mellom piksel- og latente rom.
CLIP Tekst Koding noden i ComfyUI er ansvarlig for å ta de bruker-gitte promptene og mate dem inn i CLIP språkmodellen. CLIP er en kraftig språkmodell som forstår den semantiske meningen av ord og kan assosiere dem med visuelle konsepter. Når en prompt er skrevet inn i CLIP Tekst Koding noden, gjennomgår den en transformasjonsprosess der hvert ord konverteres til embeddings. Disse embeddings er høy-dimensjonale vektorer som fanger den semantiske informasjonen av ordene. Ved å transformere prompter til embeddings, gjør CLIP det mulig for MODEL å generere bilder som nøyaktig reflekterer meningen og intensjonen til de gitte promptene.
I tekst-til-bilde prosessen starter genereringen med et tilfeldig bilde i det latente rommet. Dette tilfeldige bildet fungerer som starttilstanden for MODEL å jobbe med. Størrelsen på det latente bildet er proporsjonal med den faktiske bildestørrelsen i pikselrommet. I ComfyUI kan du justere høyden og bredden på det latente bildet for å kontrollere størrelsen på det genererte bildet. I tillegg kan du sette batch-størrelsen for å bestemme antallet bilder som genereres i hver kjøring.
De optimale størrelsene for latente bilder avhenger av den spesifikke Stable Diffusion modellen som brukes. For SD v1.5 modeller anbefales størrelsene 512x512 eller 768x768, mens for SDXL modeller er den optimale størrelsen 1024x1024. ComfyUI gir et utvalg av vanlige aspektforhold å velge mellom, som 1:1 (kvadrat), 3:2 (landskap), 2:3 (portrett), 4:3 (landskap), 3:4 (portrett), 16:9 (bredskjerm), og 9:16 (vertikal). Det er viktig å merke seg at bredden og høyden på det latente bildet må være delbare med 8 for å sikre kompatibilitet med modellens arkitektur.
VAE (Variational AutoEncoder) er en avgjørende komponent i Stable Diffusion modellen som håndterer konverteringen av bilder mellom pikselrommet og det latente rommet. Den består av to hoveddeler: en Bildekoderenhet og en Bildekoderenhet.
Bildekoderenheten tar et bilde i pikselrommet og komprimerer det til en lavere-dimensjonal latent representasjon. Denne komprimeringsprosessen reduserer data størrelsen betydelig, noe som tillater mer effektiv prosessering og lagring. For eksempel kan et bilde på størrelse 512x512 piksler bli komprimert ned til en latent representasjon på størrelse 64x64.
På den andre siden, er Bildekoderenheten, også kjent som VAE Dekoderen, ansvarlig for å rekonstruere bildet fra den latente representasjonen tilbake til pikselrommet. Den tar den komprimerte latente representasjonen og utvider den for å generere det endelige bildet.
Å bruke en VAE gir flere fordeler:
Men det er også noen ulemper å vurdere:
Til tross for disse begrensningene, spiller VAE en viktig rolle i Stable Diffusion modellen ved å muliggjøre effektiv konvertering mellom pikselrommet og det latente rommet, og fasilitere raskere generering og mer presis kontroll over de genererte bildene.
KSampler noden i ComfyUI er hjertet av bildegenereringsprosessen i Stable Diffusion. Den er ansvarlig for å avstøye det tilfeldige bildet i det latente rommet for å samsvare med den bruker-gitte prompten. KSampler bruker en teknikk kalt omvendt diffusjon, der den iterativt forbedrer den latente representasjonen ved å fjerne støy og legge til meningsfulle detaljer basert på veiledning fra CLIP embeddings.
KSampler noden tilbyr flere parametere som lar brukere finjustere bildegenereringsprosessen:
Seed: Seed-verdien styrer den innledende støyen og komposisjonen av det endelige bildet. Ved å sette en spesifikk seed, kan brukere oppnå reproduserbare resultater og opprettholde konsistens på tvers av flere generasjoner.
Control_after_generation: Denne parameteren bestemmer hvordan seed-verdien endres etter hver generering. Den kan settes til randomize (generer en ny tilfeldig seed for hver kjøring), increment (øk seed-verdien med 1), decrement (reduser seed-verdien med 1), eller fixed (hold seed-verdien konstant).
Step: Antallet samplingstrinn bestemmer intensiteten av forbedringsprosessen. Høyere verdier resulterer i færre artefakter og mer detaljerte bilder, men øker også genereringstiden.
Sampler_name: Denne parameteren lar brukere velge den spesifikke samplingalgoritmen som brukes av KSampler. Ulike samplingalgoritmer kan gi litt forskjellige resultater og ha varierende genereringshastigheter.
Scheduler: Scheduleren styrer hvordan støynivået endres ved hvert trinn i avstøyingsprosessen. Den bestemmer hastigheten som støy fjernes fra den latente representasjonen.
Denoise: Denoise-parameteren setter mengden initial støy som skal fjernes av avstøyingsprosessen. En verdi på 1 betyr at all støy vil bli fjernet, noe som resulterer i et rent og detaljert bilde.
Ved å justere disse parameterne, kan du finjustere bildegenereringsprosessen for å oppnå ønskede resultater.
Hos RunComfy har vi skapt den ultimate ComfyUI online opplevelsen bare for deg. Si farvel til kompliserte installasjoner! 🎉 Prøv ComfyUI Online nå og slipp løs ditt kunstneriske potensial som aldri før! 🎉
Bilde-til-Bilde arbeidsflyten genererer et bilde basert på en prompt og et input bilde. Prøv det selv!
For å bruke Bilde-til-Bilde arbeidsflyten:
For flere premium ComfyUI arbeidsflyter, besøk vår 🌟ComfyUI Arbeidsflytliste🌟
Takket være sin ekstreme konfigurerbarhet, er ComfyUI en av de første GUI-ene som støtter Stable Diffusion XL modellen. La oss prøve det!
For å bruke ComfyUI SDXL arbeidsflyten:
La oss dykke inn i noe mer komplekst: inpainting! Når du har et flott bilde, men ønsker å endre spesifikke deler, er inpainting den beste metoden. Prøv det her!
For å bruke inpainting arbeidsflyten:
Outpainting er en annen spennende teknikk som lar deg utvide bildene dine utover deres opprinnelige grenser. 🌆 Det er som å ha et uendelig lerret å jobbe med!
For å bruke ComfyUI Outpainting arbeidsflyten:
For flere premium inpainting/outpainting arbeidsflyter, besøk vår 🌟ComfyUI Arbeidsflytliste🌟
La oss utforske ComfyUI oppskalering. Vi vil introdusere tre grunnleggende arbeidsflyter for å hjelpe deg med å oppskalere effektivt.
Det er to hovedmetoder for oppskalering:
To måter å oppnå dette på:
En annen oppskaleringsmetode er Oppskalering av Latent, også kjent som Hi-res Latent Fix Oppskalering, som direkte oppskalerer i det latente rommet.
For flere premium gjenopprettings-/oppskaleringsarbeidsflyter, besøk vår 🌟ComfyUI Arbeidsflytliste🌟
Gjør deg klar til å ta AI-kunsten din til neste nivå med ControlNet, en banebrytende teknologi som revolusjonerer bildegenerering!
ControlNet er som en tryllestav 🪄 som gir deg enestående kontroll over dine AI-genererte bilder. Det fungerer hånd i hånd med kraftige modeller som Stable Diffusion, og forbedrer deres evner og lar deg veilede bildegenereringsprosessen som aldri før!
Tenk deg å kunne spesifisere kantene, menneskelige positurer, dybde, eller til og med segmenteringskartene til ditt ønskede bilde. 🌠 Med ControlNet kan du gjøre akkurat det!
Hvis du er ivrig etter å dykke dypere inn i ControlNets verden og slippe løs dets fulle potensial, har vi deg dekket. Sjekk ut vår detaljerte tutorial om å mestre ControlNet i ComfyUI! 📚 Den er full av trinn-for-trinn guider og inspirerende eksempler for å hjelpe deg med å bli en ControlNet-proff. 🏆
ComfyUI Manager er en egendefinert node som lar deg installere og oppdatere andre egendefinerte noder gjennom ComfyUI grensesnittet. Du finner Manager-knappen på Queue Prompt-menyen.
Hvis en arbeidsflyt krever egendefinerte noder som du ikke har installert, følg disse trinnene:
Dobbeltklikk på et hvilket som helst tomt område for å få opp en meny for å søke etter noder.
Embeddings, også kjent som tekstuell inversjon, er en kraftig funksjon i ComfyUI som lar deg injisere egendefinerte konsepter eller stiler i dine AI-genererte bilder. 💡 Det er som å lære AI-en et nytt ord eller en frase og assosiere det med spesifikke visuelle egenskaper.
For å bruke embeddings i ComfyUI, skriv ganske enkelt "embedding:" etterfulgt av navnet på din embedding i den positive eller negative prompt-boksen. For eksempel:
embedding: BadDream
Når du bruker denne prompten, vil ComfyUI søke etter en embedding-fil med navnet "BadDream" i ComfyUI > models > embeddings mappen. 📂 Hvis det finner en match, vil det anvende de tilsvarende visuelle egenskapene til ditt genererte bilde.
Embeddings er en flott måte å personalisere din AI-kunst på og oppnå spesifikke stiler eller estetikk. 🎨 Du kan lage dine egne embeddings ved å trene dem på et sett med bilder som representerer det ønskede konseptet eller stilen.
Å huske de eksakte navnene på dine embeddings kan være en utfordring, spesielt hvis du har en stor samling. 😅 Det er her ComfyUI-Custom-Scripts egendefinert node kommer til unnsetning!
For å aktivere embedding navn autocomplete:
Når du har installert ComfyUI-Custom-Scripts noden, vil du oppleve en mer brukervennlig måte å bruke embeddings på. 😊 Begynn ganske enkelt å skrive "embedding:" i en prompt-boks, og en liste over tilgjengelige embeddings vil vises. Du kan deretter velge ønsket embedding fra listen, og spare tid og krefter!
Visste du at du kan kontrollere styrken på dine embeddings? 💪 Siden embeddings i hovedsak er nøkkelord, kan du anvende vekter på dem akkurat som du ville gjort med vanlige nøkkelord i dine prompter.
For å justere vekten av en embedding, bruk følgende syntaks:
(embedding: BadDream:1.2)
I dette eksemplet økes vekten av "BadDream" embedding med 20%. Så høyere vekter (f.eks., 1.2) vil gjøre embedding mer fremtredende, mens lavere vekter (f.eks., 0.8) vil redusere dens innflytelse. 🎚️ Dette gir deg enda mer kontroll over det endelige resultatet!
LoRA, kort for Low-rank Adaptation, er en annen spennende funksjon i ComfyUI som lar deg modifisere og finjustere dine checkpoint modeller. 🎨 Det er som å legge til en liten, spesialisert modell på toppen av din basemodell for å oppnå spesifikke stiler eller inkorporere egendefinerte elementer.
LoRA modeller er kompakte og effektive, noe som gjør dem enkle å bruke og dele. De brukes ofte til oppgaver som å modifisere den kunstneriske stilen til et bilde eller injisere en spesifikk person eller objekt i det genererte resultatet.
Når du anvender en LoRA modell på en checkpoint modell, modifiserer den MODEL og CLIP komponentene mens den lar VAE (Variational Autoencoder) være urørt. Dette betyr at LoRA fokuserer på å justere innholdet og stilen til bildet uten å endre dets overordnede struktur.
Å bruke LoRA i ComfyUI er enkelt. La oss ta en titt på den enkleste metoden:
ComfyUI vil da kombinere checkpoint modellen og LoRA modellen for å skape et bilde som reflekterer de spesifiserte promptene og inkorporerer modifikasjonene introdusert av LoRA.
Men hva om du vil anvende flere LoRAs på et enkelt bilde? Ikke noe problem! ComfyUI lar deg bruke to eller flere LoRAs i samme tekst-til-bilde arbeidsflyt.
Prosessen er lik å bruke en enkelt LoRA, men du må velge flere LoRA modeller i stedet for bare én. ComfyUI vil anvende LoRAs sekvensielt, noe som betyr at hver LoRA vil bygge på modifikasjonene introdusert av den forrige.
Dette åpner opp en verden av muligheter for å kombinere forskjellige stiler, elementer og modifikasjoner i dine AI-genererte bilder. 🌍💡 Eksperimenter med forskjellige LoRA kombinasjoner for å oppnå unike og kreative resultater!
Gratulerer med å fullføre denne nybegynnerguiden til ComfyUI! 🙌 Du er nå klar til å dykke inn i den spennende verdenen av AI-kunstskaping. Men hvorfor bry seg med installasjon når du kan begynne å skape med en gang? 🤔
Hos RunComfy har vi gjort det enkelt for deg å bruke ComfyUI online uten noen oppsett. Vår ComfyUI Online-tjeneste kommer forhåndslastet med over 200 populære noder og modeller, sammen med 50+ fantastiske arbeidsflyter for å inspirere dine kreasjoner.
🌟 Enten du er en nybegynner eller en erfaren AI-kunstner, har RunComfy alt du trenger for å bringe dine kunstneriske visjoner til liv. 💡 Ikke vent lenger – prøv ComfyUI Online nå og opplev kraften i AI-kunstskaping ved dine fingertupper! 🚀
© Opphavsrett 2024 RunComfy. Alle Rettigheter Forbeholdt.