ComfyUI  >  Tutorials  >  Ontgrendel de Kracht van ComfyUI: Een Beginnersgids met Praktische Oefeningen

Hallo, mede AI-kunstenaars! 👋 Welkom bij onze gebruiksvriendelijke tutorial over ComfyUI, een ongelooflijk krachtig en flexibel hulpmiddel voor het maken van verbluffende door AI gegenereerde kunstwerken. 🎨 In deze gids nemen we je mee door de basisprincipes van ComfyUI, verkennen we de functies en helpen we je het potentieel ervan te ontgrendelen om je AI-kunst naar een hoger niveau te tillen. 🚀

We zullen behandelen:

1. Wat is ComfyUI?

  • 1.1. ComfyUI vs. AUTOMATIC1111
  • 1.2. Waar te Beginnen met ComfyUI?
  • 1.3. Basisbediening

2. ComfyUI Workflows: Tekst-naar-Afbeelding

  • 2.1. Een Model Selecteren
  • 2.2. De Positieve en Negatieve Prompt Invoeren
  • 2.3. Een Afbeelding Genereren
  • 2.4. Technische Uitleg van ComfyUI
    • 2.4.1 Laad Checkpoint Node
    • 2.4.2. CLIP Tekst Coderen
    • 2.4.3. Leeg Latent Afbeelding
    • 2.4.4. VAE
    • 2.4.5. KSampler

3. ComfyUI Workflow: Afbeelding-naar-Afbeelding

4. ComfyUI SDXL

5. ComfyUI Inpainting

6. ComfyUI Outpainting

7. ComfyUI Upscale

  • 7.1. Upscale Pixel
    • 7.1.1. Upscale Pixel door Algoritme
    • 7.1.2. Upscale Pixel door Model
  • 7.2. Upscale Latent
  • 7.3. Upscale Pixel vs. Upscale Latent

8. ComfyUI ControlNet

9. ComfyUI Manager

  • 9.1. Hoe Ontbrekende Aangepaste Nodes te Installeren
  • 9.2. Hoe Aangepaste Nodes te Updaten
  • 9.3. Hoe Aangepaste Nodes te Laden in Je Workflow

10. ComfyUI Embeddings

  • 10.1. Embedding met Autocomplete
  • 10.2. Embedding Gewicht

11. ComfyUI LoRA

  • 11.1. Eenvoudige LoRA Workflows
  • 11.2. Meerdere LoRAs

12. Sneltoetsen en Trucs voor ComfyUI

  • 12.1. Kopiëren en Plakken
  • 12.2. Meerdere Nodes Verplaatsen
  • 12.3. Een Node Omzeilen
  • 12.4. Een Node Minimaliseren
  • 12.5. Afbeelding Genereren
  • 12.6. Ingebedde Workflow
  • 12.7. Zaden Fixeren om Tijd te Besparen

13. ComfyUI Online

1. Wat is ComfyUI? 🤔

ComfyUI is als het hebben van een toverstaf 🪄 voor het moeiteloos creëren van verbluffende, door AI gegenereerde kunstwerken. In de kern is ComfyUI een op nodes gebaseerde grafische gebruikersinterface (GUI) gebouwd op Stable Diffusion, een geavanceerd deep learning model dat beelden genereert vanuit tekstbeschrijvingen. 🌟 Maar wat ComfyUI echt speciaal maakt, is hoe het kunstenaars zoals jij in staat stelt je creativiteit te ontketenen en je wildste ideeën tot leven te brengen.

Stel je een digitaal canvas voor waar je je eigen unieke afbeeldingsgeneratie workflows kunt samenstellen door verschillende nodes te verbinden, elk met een specifieke functie of bewerking. 🧩 Het is als het bouwen van een visueel recept voor je door AI gegenereerde meesterwerken!

Wil je een afbeelding vanaf nul genereren met een tekstprompt? Daar is een node voor! Wil je een specifieke sampler toepassen of het ruisniveau verfijnen? Voeg gewoon de bijbehorende nodes toe en zie de magie gebeuren. ✨

Maar hier is het beste deel: ComfyUI breekt de workflow af in herschikbare elementen, waardoor je de vrijheid hebt om je eigen aangepaste workflows te creëren die zijn afgestemd op je artistieke visie. 🖼️ Het is als het hebben van een gepersonaliseerde toolkit die zich aanpast aan je creatieve proces.

1.1. ComfyUI vs. AUTOMATIC1111 🆚

AUTOMATIC1111 is de standaard GUI voor Stable Diffusion. Dus, moet je in plaats daarvan ComfyUI gebruiken? Laten we vergelijken:

✅ Voordelen van het gebruik van ComfyUI:

  1. Lichtgewicht: Het werkt snel en efficiënt.
  2. Flexibel: Hoog configurabel om aan je behoeften te voldoen.
  3. Transparant: De gegevensstroom is zichtbaar en gemakkelijk te begrijpen.
  4. Eenvoudig te delen: Elk bestand vertegenwoordigt een reproduceerbare workflow.
  5. Geschikt voor prototyping: Maak prototypes met een grafische interface in plaats van te coderen.

❌ Nadelen van het gebruik van ComfyUI:

  1. Inconsistente interface: Elke workflow kan een andere node-indeling hebben.
  2. Te veel details: Gemiddelde gebruikers hoeven mogelijk niet de onderliggende verbindingen te kennen.

1.2. Waar te Beginnen met ComfyUI? 🏁

Wij geloven dat de beste manier om ComfyUI te leren is door in voorbeelden te duiken en het zelf te ervaren. 🙌 Daarom hebben we deze unieke tutorial gemaakt die zich onderscheidt van anderen. In deze tutorial vind je een gedetailleerde, stapsgewijze gids die je kunt volgen.

Maar hier is het beste deel: 🌟 We hebben ComfyUI direct in deze webpagina geïntegreerd! Je kunt in real-time interactie hebben met ComfyUI-voorbeelden terwijl je de gids doorloopt.🌟 Laten we beginnen!

2. ComfyUI Workflows: Tekst-naar-Afbeelding 🖼️

Laten we beginnen met het eenvoudigste geval: een afbeelding genereren vanuit tekst. Klik op Queue Prompt om de workflow uit te voeren. Na een korte wachttijd zou je je eerste gegenereerde afbeelding moeten zien! Om je wachtrij te controleren, klik je gewoon op View Queue.

Hier is een standaard tekst-naar-afbeelding workflow voor jou om te proberen:

Basisbouwstenen 🕹️

De ComfyUI workflow bestaat uit twee basisbouwstenen: Nodes en Edges.

  • Nodes zijn de rechthoekige blokken, bijv. Load Checkpoint, Clip Text Encoder, enz. Elke node voert specifieke code uit en vereist invoer, uitvoer en parameters.
  • Edges zijn de draden die de uitvoer en invoer tussen nodes verbinden.

Basisbediening 🕹️

  • Zoom in en uit met het muiswiel of door twee vingers te knijpen.
  • Sleep en houd het invoer- of uitvoerpunt vast om verbindingen tussen nodes te maken.
  • Beweeg door de werkruimte door de linkermuisknop ingedrukt te houden en te slepen.

Laten we de details van deze workflow induiken.

ComfyUI workflow: text to image

2.1. Een Model Selecteren 🗃️

Selecteer eerst een Stable Diffusion Checkpoint model in de Load Checkpoint node. Klik op de modelnaam om beschikbare modellen te bekijken. Als het klikken op de modelnaam niets doet, moet je mogelijk een aangepast model uploaden.

2.2. De Positieve en Negatieve Prompt Invoeren 📝

Je ziet twee nodes met het label CLIP Text Encode (Prompt). De bovenste prompt is verbonden met de positieve invoer van de KSampler node, terwijl de onderste prompt is verbonden met de negatieve invoer. Voer je positieve prompt dus in de bovenste in en je negatieve prompt in de onderste.

De CLIP Text Encode node zet de prompt om in tokens en codeert ze in embeddings met behulp van de tekstencoder.

💡 Tip: Gebruik de syntaxis (keyword:weight) om het gewicht van een sleutelwoord te regelen, bijvoorbeeld (keyword:1.2) om het effect te vergroten of (keyword:0.8) om het te verminderen.

2.3. Een Afbeelding Genereren 🎨

Klik op Queue Prompt om de workflow uit te voeren. Na een korte wachttijd wordt je eerste afbeelding gegenereerd!

2.4. Technische Uitleg van ComfyUI 🤓

De kracht van ComfyUI ligt in de configureerbaarheid. Begrijpen wat elke node doet, stelt je in staat ze aan te passen aan je behoeften. Maar voordat we in de details duiken, laten we eens kijken naar het Stable Diffusion proces om beter te begrijpen hoe ComfyUI werkt.

Het Stable Diffusion proces kan worden samengevat in drie hoofd stappen:

  1. Tekstcodering: De door de gebruiker ingevoerde prompt wordt door een component genaamd de Tekstencoder omgezet in individuele woordkenmerkvectoren. Deze stap zet de tekst om in een formaat dat het model kan begrijpen en mee kan werken.
  2. Latent Ruimte Transformatie: De kenmerkvectoren van de Tekstencoder en een willekeurige ruisafbeelding worden getransformeerd in een latente ruimte. In deze ruimte ondergaat de willekeurige afbeelding een denoising proces op basis van de kenmerkvectoren, wat resulteert in een tussenproduct. Deze stap is waar de magie gebeurt, aangezien het model leert de tekstkenmerken te associëren met visuele representaties.
  3. Afbeelding Decodering: Ten slotte wordt het tussenproduct uit de latente ruimte door de Afbeelding Decoder gedecodeerd, waardoor het wordt omgezet in een echte afbeelding die we kunnen zien en waarderen.

Nu we een globaal begrip hebben van het Stable Diffusion proces, laten we de belangrijkste componenten en nodes in ComfyUI verkennen die dit proces mogelijk maken.

2.4.1 Laad Checkpoint Node 🗃️

De Laad Checkpoint node in ComfyUI is cruciaal voor het selecteren van een Stable Diffusion model. Een Stable Diffusion model bestaat uit drie hoofdcomponenten: MODEL, CLIP en VAE. Laten we elk component en zijn relatie met de bijbehorende nodes in ComfyUI verkennen.

  1. MODEL: De MODEL component is het ruisvoorspellingsmodel dat werkt in de latente ruimte. Het is verantwoordelijk voor het kernproces van het genereren van afbeeldingen uit de latente representatie. In ComfyUI verbindt de MODEL uitvoer van de Laad Checkpoint node met de KSampler node, waar het omgekeerde diffusi proces plaatsvindt. De KSampler node gebruikt het MODEL om iteratief de latente representatie te denoisen, waardoor de afbeelding geleidelijk verfijnd wordt totdat deze overeenkomt met de gewenste prompt.
  2. CLIP: CLIP (Contrastive Language-Image Pre-training) is een taalmodel dat de positieve en negatieve prompts verwerkt die door de gebruiker zijn verstrekt. Het zet de tekstprompts om in een formaat dat het MODEL kan begrijpen en gebruiken om het afbeeldingsgeneratieproces te begeleiden. In ComfyUI verbindt de CLIP uitvoer van de Laad Checkpoint node met de CLIP Text Encode node. De CLIP Text Encode node neemt de door de gebruiker verstrekte prompts en voert ze in het CLIP taalmodel, waarbij elk woord wordt omgezet in embeddings. Deze embeddings vangen de semantische betekenis van de woorden op en stellen het MODEL in staat afbeeldingen te genereren die overeenkomen met de gegeven prompts.
  3. VAE: VAE (Variational AutoEncoder) is verantwoordelijk voor het omzetten van de afbeelding tussen de pixelruimte en de latente ruimte. Het bestaat uit een encoder die de afbeelding comprimeert tot een lager-dimensionale latente representatie en een decoder die de afbeelding reconstrueert vanuit de latente representatie. In het tekst-naar-afbeelding proces wordt de VAE alleen in de laatste stap gebruikt om de gegenereerde afbeelding vanuit de latente ruimte terug naar de pixelruimte te converteren. De VAE Decode node in ComfyUI neemt de uitvoer van de KSampler node (die werkt in de latente ruimte) en gebruikt het decoder deel van de VAE om de latente representatie om te zetten in de uiteindelijke afbeelding in de pixelruimte.

Het is belangrijk op te merken dat de VAE een aparte component is van het CLIP taalmodel. Terwijl CLIP zich richt op het verwerken van tekstprompts, houdt de VAE zich bezig met de conversie tussen pixel- en latente ruimtes.

2.4.2. CLIP Tekst Coderen 📝

De CLIP Text Encode node in ComfyUI is verantwoordelijk voor het nemen van de door de gebruiker verstrekte prompts en deze in het CLIP taalmodel te voeren. CLIP is een krachtig taalmodel dat de semantische betekenis van woorden begrijpt en ze kan associëren met visuele concepten. Wanneer een prompt wordt ingevoerd in de CLIP Text Encode node, ondergaat deze een transformatieproces waarbij elk woord wordt omgezet in embeddings. Deze embeddings zijn hoog-dimensionale vectoren die de semantische informatie van de woorden vastleggen. Door de prompts om te zetten in embeddings, stelt CLIP het MODEL in staat afbeeldingen te genereren die nauwkeurig de betekenis en intentie van de gegeven prompts weerspiegelen.

2.4.3. Leeg Latent Afbeelding 🌌

In het tekst-naar-afbeelding proces begint de generatie met een willekeurige afbeelding in de latente ruimte. Deze willekeurige afbeelding dient als de beginstaat voor het MODEL om mee te werken. De grootte van de latente afbeelding is evenredig aan de werkelijke afbeeldingsgrootte in de pixelruimte. In ComfyUI kun je de hoogte en breedte van de latente afbeelding aanpassen om de grootte van de gegenereerde afbeelding te regelen. Bovendien kun je de batchgrootte instellen om het aantal afbeeldingen te bepalen dat in elke run wordt gegenereerd.

De optimale maten voor latente afbeeldingen zijn afhankelijk van het specifieke Stable Diffusion model dat wordt gebruikt. Voor SD v1.5 modellen zijn de aanbevolen maten 512x512 of 768x768, terwijl voor SDXL modellen de optimale maat 1024x1024 is. ComfyUI biedt een reeks veelvoorkomende beeldverhoudingen om uit te kiezen, zoals 1:1 (vierkant), 3:2 (landschap), 2:3 (portret), 4:3 (landschap), 3:4 (portret), 16:9 (breedbeeld) en 9:16 (verticaal). Het is belangrijk op te merken dat de breedte en hoogte van de latente afbeelding deelbaar moeten zijn door 8 om compatibiliteit met de architectuur van het model te waarborgen.

2.4.4. VAE 🔍

De VAE (Variational AutoEncoder) is een cruciale component in het Stable Diffusion model die verantwoordelijk is voor het omzetten van afbeeldingen tussen de pixelruimte en de latente ruimte. Het bestaat uit twee hoofdonderdelen: een Beeldencoder en een Beelddecoder.

De Beeldencoder neemt een afbeelding in de pixelruimte en comprimeert deze tot een lager-dimensionale latente representatie. Dit compressieproces vermindert de gegevensgrootte aanzienlijk, waardoor efficiëntere verwerking en opslag mogelijk zijn. Bijvoorbeeld, een afbeelding van 512x512 pixels kan worden gecomprimeerd tot een latente representatie van 64x64.

Aan de andere kant is de Beelddecoder, ook bekend als de VAE-decoder, verantwoordelijk voor het reconstrueren van de afbeelding vanuit de latente representatie terug naar de pixelruimte. Het neemt de gecomprimeerde latente representatie en breidt deze uit om de uiteindelijke afbeelding te genereren.

Het gebruik van een VAE biedt verschillende voordelen:

  1. Efficiëntie: Door de afbeelding te comprimeren tot een lager-dimensionale latente ruimte, maakt de VAE snellere generatie en kortere trainingstijden mogelijk. De verminderde gegevensgrootte zorgt voor efficiëntere verwerking en geheugengebruik.
  2. Latente ruimte manipulatie: De latente ruimte biedt een meer compacte en betekenisvolle representatie van de afbeelding. Hierdoor is precieze controle en bewerking van afbeeldingsdetails en stijl mogelijk. Door de latente representatie te manipuleren, wordt het mogelijk specifieke aspecten van de gegenereerde afbeelding te wijzigen.

Er zijn echter ook enkele nadelen om te overwegen: 1. Gegevensverlies: Tijdens het coderings- en decoderingsproces kunnen sommige details van de oorspronkelijke afbeelding verloren gaan. De compressie- en reconstructiestappen kunnen artefacten of kleine variaties in de uiteindelijke afbeelding introduceren in vergelijking met het origineel. 2. Beperkte vastlegging van oorspronkelijke gegevens: De lager-dimensionale latente ruimte kan mogelijk niet alle ingewikkelde kenmerken en details van de oorspronkelijke afbeelding volledig vastleggen. Sommige informatie kan verloren gaan tijdens het compressieproces, wat resulteert in een iets minder nauwkeurige representatie van de oorspronkelijke gegevens.

Ondanks deze beperkingen speelt de VAE een cruciale rol in het Stable Diffusion model door efficiënte conversie tussen de pixelruimte en de latente ruimte mogelijk te maken, wat snellere generatie en preciezere controle over de gegenereerde afbeeldingen faciliteert.

2.4.5. KSampler ⚙️

De KSampler node in ComfyUI is het hart van het afbeeldingsgeneratieproces in Stable Diffusion. Het is verantwoordelijk voor het denoisen van de willekeurige afbeelding in de latente ruimte om overeen te komen met de door de gebruiker verstrekte prompt. De KSampler maakt gebruik van een techniek genaamd reverse diffusion, waarbij het iteratief de latente representatie verfijnt door ruis te verwijderen en betekenisvolle details toe te voegen op basis van de begeleiding van de CLIP embeddings.

De KSampler node biedt verschillende parameters waarmee gebruikers het afbeeldingsgeneratieproces kunnen afstemmen:

Seed: De seed waarde bepaalt de initiële ruis en compositie van de uiteindelijke afbeelding. Door een specifieke seed in te stellen, kunnen gebruikers reproduceerbare resultaten bereiken en consistentie behouden over meerdere generaties.

Control_after_generation: Deze parameter bepaalt hoe de seed waarde verandert na elke generatie. Het kan worden ingesteld op randomize (genereer een nieuwe willekeurige seed voor elke run), increment (verhoog de seed waarde met 1), decrement (verlaag de seed waarde met 1), of fixed (houd de seed waarde constant).

Step: Het aantal sampling stappen bepaalt de intensiteit van het verfijningsproces. Hogere waarden resulteren in minder artefacten en meer gedetailleerde afbeeldingen, maar verhogen ook de generatietijd.

Sampler_name: Deze parameter stelt gebruikers in staat het specifieke sampling algoritme te kiezen dat door de KSampler wordt gebruikt. Verschillende sampling algoritmen kunnen iets andere resultaten opleveren en hebben variërende generatiesnelheden.

Scheduler: De scheduler regelt hoe het ruisniveau verandert bij elke stap van het denoising proces. Het bepaalt de snelheid waarmee ruis uit de latente representatie wordt verwijderd.

Denoise: De denoise parameter stelt de hoeveelheid initiële ruis in die door het denoising proces moet worden verwijderd. Een waarde van 1 betekent dat alle ruis zal worden verwijderd, wat resulteert in een schone en gedetailleerde afbeelding.

Door deze parameters aan te passen, kun je het afbeeldingsgeneratieproces afstemmen om de gewenste resultaten te bereiken.

Ben je klaar om je ComfyUI-reis te beginnen?

Bij RunComfy hebben we de ultieme ComfyUI online ervaring voor jou gecreëerd. Zeg vaarwel tegen ingewikkelde installaties! 🎉 Probeer ComfyUI Online nu en ontketen je artistieke potentieel als nooit tevoren! 🎉

3. ComfyUI Workflow: Afbeelding-naar-Afbeelding 🖼️

De Afbeelding-naar-Afbeelding workflow genereert een afbeelding op basis van een prompt en een invoerafbeelding. Probeer het zelf!

Om de Afbeelding-naar-Afbeelding workflow te gebruiken:

  1. Selecteer het checkpoint model.
  2. Upload de afbeelding als een afbeelding prompt.
  3. Pas de positieve en negatieve prompts aan.
  4. Optioneel, pas de denoise (denoising strength) aan in de KSampler node.
  5. Druk op Queue Prompt om de generatie te starten.
ComfyUI workflow: image to image

Voor meer premium ComfyUI workflows, bezoek onze 🌟ComfyUI Workflow List🌟

4. ComfyUI SDXL 🚀

Dankzij zijn extreme configureerbaarheid is ComfyUI een van de eerste GUI's die het Stable Diffusion XL model ondersteunt. Laten we het proberen!

Om de ComfyUI SDXL workflow te gebruiken:

  1. Pas de positieve en negatieve prompts aan.
  2. Druk op Queue Prompt om de generatie te starten.

5. ComfyUI Inpainting 🎨

Laten we iets complexers induiken: inpainting! Wanneer je een geweldige afbeelding hebt maar specifieke delen wilt wijzigen, is inpainting de beste methode. Probeer het hier!

Om de inpainting workflow te gebruiken:

  1. Upload een afbeelding die je wilt inpainten.
  2. Klik met de rechtermuisknop op de afbeelding en selecteer "Open in MaskEditor". Masker het gebied dat je opnieuw wilt genereren en klik vervolgens op "Save to node". ComfyUI workflow: inpainting
  3. Selecteer een Checkpoint model:
    • Deze workflow werkt alleen met een standaard Stable Diffusion model, niet met een Inpainting model.
    • Als je een inpainting model wilt gebruiken, schakel dan de "VAE Encode" en "Set Noise Latent Mask" nodes over naar de "VAE Encode (Inpaint)" node, die specifiek is ontworpen voor inpainting modellen.
  4. Pas het inpainting proces aan:
    • In de CLIP Text Encode (Prompt) node kun je aanvullende informatie invoeren om de inpainting te begeleiden. Bijvoorbeeld, je kunt de stijl, het thema of de elementen specificeren die je in het inpainting gebied wilt opnemen.
  5. Stel de oorspronkelijke denoising strength (denoise) in, bijv. 0.6.
  6. Druk op Queue Prompt om inpainting uit te voeren.
ComfyUI inpainting workflow

6. ComfyUI Outpainting 🖌️

Outpainting is een andere spannende techniek waarmee je je afbeeldingen kunt uitbreiden buiten hun oorspronkelijke grenzen. 🌆 Het is als het hebben van een oneindig canvas om mee te werken!

Om de ComfyUI Outpainting workflow te gebruiken:

  1. Begin met een afbeelding die je wilt uitbreiden.
  2. Gebruik de Pad Image for Outpainting node in je workflow.
  3. Configureer de outpainting instellingen:
    • left, top, right, bottom: Specificeer het aantal pixels om in elke richting uit te breiden.
    • feathering: Pas de soepelheid van de overgang tussen de oorspronkelijke afbeelding en het outpainted gebied aan. Hogere waarden creëren een geleidelijkere overgang, maar kunnen een vlekkerig effect introduceren.
  4. Pas het outpainting proces aan:
    • In de CLIP Text Encode (Prompt) node kun je aanvullende informatie invoeren om de outpainting te begeleiden. Bijvoorbeeld, je kunt de stijl, het thema of de elementen specificeren die je in het uitgebreide gebied wilt opnemen.
    • Experimenteer met verschillende prompts om de gewenste resultaten te bereiken.
  5. Fijn afstellen van de VAE Encode (for Inpainting) node:
    • Pas de grow_mask_by parameter aan om de grootte van het outpainting masker te regelen. Een waarde groter dan 10 wordt aanbevolen voor optimale resultaten.
  6. Druk op Queue Prompt om het outpainting proces te starten.
ComfyUI outpainting workflow

Voor meer premium inpainting/outpainting workflows, bezoek onze 🌟ComfyUI Workflow List🌟

7. ComfyUI Upscale ⬆️

Laten we verder verkennen met ComfyUI upscaling. We zullen drie fundamentele workflows introduceren om je te helpen efficiënt op te schalen.

Er zijn twee hoofdmethoden voor upscaling:

  1. Upscale pixel: Schaal direct de zichtbare afbeelding op.
    • Input: afbeelding, Output: opgeschaalde afbeelding
  2. Upscale latent: Schaal de onzichtbare latente ruimte afbeelding op.
    • Input: latent, Output: opgeschaalde latent (moet worden gedecodeerd om een zichtbare afbeelding te worden)

7.1. Upscale Pixel 🖼️

Twee manieren om dit te bereiken:

  1. Gebruik van algoritmen: Snelste generatiesnelheid, maar iets inferieure resultaten in vergelijking met modellen.
  2. Gebruik van modellen: Betere resultaten, maar langzamere generatietijd.

7.1.1. Upscale Pixel door Algoritme 🧮

  • Voeg de Upscale Image by node toe.
  • method parameter: Kies het upscaling algoritme (bicubic, bilinear, nearest-exact).
  • Scale parameter: Specificeer de upscaling factor (bijv. 2 voor 2x).
ComfyUI Upscale Pixel by Algorithm

7.1.2. Upscale Pixel door Model 🤖

  • Voeg de Upscale Image (using Model) node toe.
  • Voeg de Load Upscale Model node toe.
  • Kies een model dat geschikt is voor jouw afbeeldingstype (bijv. anime of real-life).
  • Selecteer de upscaling factor (X2 of X4).
ComfyUI Upscale Pixel by Model

7.2. Upscale Latent ⚙️

Een andere upscaling methode is Upscale Latent, ook bekend als Hi-res Latent Fix Upscale, die direct in de latente ruimte opwaardeert.

ComfyUI Upscale Latent

7.3. Upscale Pixel vs. Upscale Latent 🆚

  • Upscale Pixel: Vergroot alleen de afbeelding zonder nieuwe informatie toe te voegen. Snellere generatie, maar kan een vlekkerig effect hebben en details missen.
  • Upscale Latent: Naast vergroten verandert het ook enkele van de oorspronkelijke afbeeldingsinformatie, waardoor details worden verrijkt. Kan afwijken van de oorspronkelijke afbeelding en heeft een langzamere generatiesnelheid.

Voor meer premium restore/upscale workflows, bezoek onze 🌟ComfyUI Workflow List🌟

8. ComfyUI ControlNet 🎮

Maak je klaar om je AI-kunst naar een hoger niveau te tillen met ControlNet, een baanbrekende technologie die de beeldgeneratie revolutioneert!

ControlNet is als een toverstaf 🪄 die je ongekende controle geeft over je door AI gegenereerde afbeeldingen. Het werkt hand in hand met krachtige modellen zoals Stable Diffusion, waardoor hun mogelijkheden worden verbeterd en je het beeldcreatieproces kunt sturen als nooit tevoren!

Stel je voor dat je de randen, menselijke poses, diepte of zelfs segmentatiekaarten van je gewenste afbeelding kunt specificeren. 🌠 Met ControlNet kun je dat doen!

Als je dieper wilt duiken in de wereld van ControlNet en het volledige potentieel ervan wilt ontketenen, hebben we je gedekt. Bekijk onze gedetailleerde tutorial over mastering ControlNet in ComfyUI! 📚 Het zit boordevol stapsgewijze gidsen en inspirerende voorbeelden om je te helpen een ControlNet-pro te worden. 🏆

9. ComfyUI Manager 🛠️

ComfyUI Manager is een aangepaste node waarmee je andere aangepaste nodes kunt installeren en updaten via de ComfyUI-interface. Je vindt de Manager knop in het Queue Prompt menu.

9.1. Hoe Ontbrekende Aangepaste Nodes te Installeren 📥

Als een workflow aangepaste nodes vereist die je niet hebt geïnstalleerd, volg dan deze stappen:

  1. Klik op Manager in het Menu.
  2. Klik op Install Missing Custom Nodes.
  3. Start ComfyUI volledig opnieuw.
  4. Vernieuw de browser.

9.2. Hoe Aangepaste Nodes te Updaten 🔄

  1. Klik op Manager in het Menu.
  2. Klik op Fetch Updates (kan even duren).
  3. Klik op Install Custom Nodes.
  4. Als een update beschikbaar is, verschijnt er een Update knop naast de geïnstalleerde aangepaste node.
  5. Klik op Update om de node bij te werken.
  6. Start ComfyUI opnieuw.
  7. Vernieuw de browser.
ComfyUI Manager

9.3. Hoe Aangepaste Nodes te Laden in Je Workflow 🔍

Dubbelklik op een leeg gebied om een menu te openen om naar nodes te zoeken.

ComfyUI Manager

10. ComfyUI Embeddings 📝

Embeddings, ook bekend als textual inversion, zijn een krachtige functie in ComfyUI waarmee je aangepaste concepten of stijlen in je door AI gegenereerde afbeeldingen kunt injecteren. 💡 Het is als het aanleren van een nieuw woord of frase aan de AI en het associëren met specifieke visuele kenmerken.

Om embeddings in ComfyUI te gebruiken, typ je eenvoudig "embedding:" gevolgd door de naam van je embedding in de positieve of negatieve prompt box. Bijvoorbeeld:

embedding: BadDream

ComfyUI Embeddings

Wanneer je deze prompt gebruikt, zoekt ComfyUI naar een embedding-bestand met de naam "BadDream" in de ComfyUI > models > embeddings map. 📂 Als het een overeenkomst vindt, past het de bijbehorende visuele kenmerken toe op je gegenereerde afbeelding.

Embeddings zijn een geweldige manier om je AI-kunst te personaliseren en specifieke stijlen of esthetiek te bereiken. 🎨 Je kunt je eigen embeddings maken door ze te trainen op een set afbeeldingen die het gewenste concept of de gewenste stijl vertegenwoordigen.

10.1. Embedding met Autocomplete 🔠

Het onthouden van de exacte namen van je embeddings kan lastig zijn, vooral als je een grote collectie hebt. 😅 Daar komt de ComfyUI-Custom-Scripts aangepaste node te hulp!

Om embedding naam autocomplete in te schakelen:

  1. Open de ComfyUI Manager door op "Manager" in het bovenste menu te klikken.
  2. Ga naar "Install Custom nodes" en zoek naar "ComfyUI-Custom-Scripts".
  3. Klik op "Install" om de aangepaste node toe te voegen aan je ComfyUI setup.
  4. Start ComfyUI opnieuw om de wijzigingen toe te passen.

Zodra je de ComfyUI-Custom-Scripts node hebt geïnstalleerd, ervaar je een gebruiksvriendelijkere manier om embeddings te gebruiken. 😊 Begin gewoon met typen "embedding:" in een prompt box, en een lijst met beschikbare embeddings verschijnt. Je kunt vervolgens de gewenste embedding uit de lijst selecteren, wat je tijd en moeite bespaart!

10.2. Embedding Gewicht ⚖️

Wist je dat je de sterkte van je embeddings kunt regelen? 💪 Omdat embeddings in wezen sleutelwoorden zijn, kun je er gewichten op toepassen, net zoals je zou doen met gewone sleutelwoorden in je prompts.

Om het gewicht van een embedding aan te passen, gebruik je de volgende syntaxis:

(embedding: BadDream:1.2)

In dit voorbeeld wordt het gewicht van de "BadDream" embedding met 20% verhoogd. Dus hogere gewichten (bijv. 1.2) zullen de embedding prominenter maken, terwijl lagere gewichten (bijv. 0.8) de invloed ervan verminderen. 🎚️ Dit geeft je nog meer controle over het eindresultaat!

11. ComfyUI LoRA 🧩

LoRA, kort voor Low-rank Adaptation, is een andere spannende functie in ComfyUI waarmee je je checkpoint modellen kunt wijzigen en fijn afstemmen. 🎨 Het is als het toevoegen van een klein, gespecialiseerd model bovenop je basismodel om specifieke stijlen te bereiken of aangepaste elementen op te nemen.

LoRA modellen zijn compact en efficiënt, waardoor ze gemakkelijk te gebruiken en te delen zijn. Ze worden vaak gebruikt voor taken zoals het wijzigen van de artistieke stijl van een afbeelding of het injecteren van een specifieke persoon of object in het gegenereerde resultaat.

Wanneer je een LoRA model toepast op een checkpoint model, wijzigt het de MODEL en CLIP componenten terwijl het de VAE (Variational Autoencoder) onaangetast laat. Dit betekent dat de LoRA zich richt op het aanpassen van de inhoud en stijl van de afbeelding zonder de algehele structuur te veranderen.

11.1. Hoe LoRA te gebruiken 🔧

Het gebruik van LoRA in ComfyUI is eenvoudig. Laten we de eenvoudigste methode bekijken:

  1. Selecteer een checkpoint model dat als basis dient voor je afbeeldingsgeneratie.
  2. Kies een LoRA model dat je wilt toepassen om de stijl aan te passen of specifieke elementen in te voegen.
  3. Pas de positieve en negatieve prompts aan om het afbeeldingsgeneratieproces te begeleiden.
  4. Klik op "Queue Prompt" om de afbeelding te genereren met de toegepaste LoRA. ▶

ComfyUI combineert vervolgens het checkpoint model en het LoRA model om een afbeelding te creëren die de gespecificeerde prompts weerspiegelt en de aanpassingen introduceert door de LoRA.

11.2. Meerdere LoRAs 🧩🧩

Maar wat als je meerdere LoRAs op één afbeelding wilt toepassen? Geen probleem! ComfyUI stelt je in staat om twee of meer LoRAs in dezelfde tekst-naar-afbeelding workflow te gebruiken.

ComfyUI LoRA

Het proces is vergelijkbaar met het gebruik van een enkele LoRA, maar je moet meerdere LoRA modellen selecteren in plaats van slechts één. ComfyUI past de LoRAs sequentieel toe, wat betekent dat elke LoRA voortbouwt op de aanpassingen geïntroduceerd door de vorige.

Dit opent een wereld van mogelijkheden om verschillende stijlen, elementen en aanpassingen te combineren in je door AI gegenereerde afbeeldingen. 🌍💡 Experimenteer met verschillende LoRA combinaties om unieke en creatieve resultaten te bereiken!

12. Sneltoetsen en Trucs voor ComfyUI ⌨️🖱️

12.1. Kopiëren en Plakken 📋

  • Selecteer een node en druk op Ctrl+C om te kopiëren.
  • Druk op Ctrl+V om te plakken.
  • Druk op Ctrl+Shift+V om te plakken met invoerverbindingen intact.

12.2. Meerdere Nodes Verplaatsen 🖱️

  • Maak een groep om een set nodes samen te verplaatsen.
  • Houd anders Ctrl ingedrukt en sleep om een vak te maken om meerdere nodes te selecteren of houd Ctrl ingedrukt om meerdere nodes individueel te selecteren.
  • Om de geselecteerde nodes te verplaatsen, houd Shift ingedrukt en beweeg de muis.

12.3. Een Node Omzeilen 🔇

  • Schakel een node tijdelijk uit door deze te dempen. Selecteer een node en druk op Ctrl+M.
  • Er is geen sneltoets om een groep te dempen. Selecteer Bypass Group Node in het rechtermuisklikmenu of demp de eerste node in de groep om deze uit te schakelen.

12.4. Een Node Minimaliseren 🔍

  • Klik op de stip in de linkerbovenhoek van de node om deze te minimaliseren.

12.5. Afbeelding Genereren ▶️

  • Druk op Ctrl+Enter om de workflow in de wachtrij te plaatsen en afbeeldingen te genereren.

12.6. Ingebedde Workflow 🖼️

  • ComfyUI slaat de volledige workflow op in de metadata van het PNG-bestand dat het genereert. Om de workflow te laden, sleep je de afbeelding naar ComfyUI.

12.7. Zaden Fixeren om Tijd te Besparen ⏰

  • ComfyUI voert een node alleen opnieuw uit als de invoer verandert. Bij het werken aan een lange keten van nodes, bespaar je tijd door het zaad te fixeren om te voorkomen dat upstream resultaten opnieuw worden gegenereerd.

13. ComfyUI Online 🚀

Gefeliciteerd met het voltooien van deze beginnersgids voor ComfyUI! 🙌 Je bent nu klaar om de spannende wereld van AI-kunstcreatie te verkennen. Maar waarom zou je je bezighouden met installatie als je meteen kunt beginnen met creëren? 🤔

Bij RunComfy hebben we het je eenvoudig gemaakt om ComfyUI online te gebruiken zonder enige setup. Onze ComfyUI Online service wordt vooraf geladen met meer dan 200 populaire nodes en modellen, samen met meer dan 50 verbluffende workflows om je creaties te inspireren.

🌟 Of je nu een beginner bent of een ervaren AI-kunstenaar, RunComfy heeft alles wat je nodig hebt om je artistieke visies tot leven te brengen. 💡 Wacht niet langer – probeer ComfyUI Online nu en ervaar de kracht van AI-kunstcreatie binnen handbereik! 🚀

RunComfy

© Copyright 2024 RunComfy. Alle Rechten Voorbehouden.

RunComfy is de voornaamste ComfyUI platform, dat biedt ComfyUI online omgeving en diensten, samen met ComfyUI workflows met verbluffende visuals.