ComfyUI  >  Tutorials  >  Dybdegående i ComfyUI ControlNet: Med Depth, OpenPose, Canny, Lineart, Softedge, Scribble, Seg...

Hej der! I denne guide vil vi dykke ned i den spændende verden af ControlNet i ComfyUI. Lad os sammen udforske, hvad det bringer til bordet, og hvordan det kan krydre dine projekter!

Vi vil dække:

1. Hvad er ControlNet?

2. De Tekniske Aspekter Bag ControlNet

3. Hvordan man Bruger ComfyUI ControlNet: Grundlæggende Trin

  • 3.1. Indlæsning af "Apply ControlNet" Node i ComfyUI
  • 3.2. Input af "Apply ControlNet" Node
  • 3.3. Output af "Apply ControlNet" Node
  • 3.4. Parametre til finjustering af "Apply ControlNet"

4. Hvordan man Bruger ComfyUI ControlNet: Avancerede Funktioner - Timestep Keyframes

5. Forskellige ControlNet/T2IAdaptor Modeller: Detaljeret Oversigt

  • 5.1. ControlNet Openpose
  • 5.2. ControlNet Tile
  • 5.3. ControlNet Canny
  • 5.4. ControlNet Depth
  • 5.5. ControlNet Lineart
  • 5.6. ControlNet Scribbles
  • 5.7. ControlNet Segmentation
  • 5.8. ControlNet Shuffle
  • 5.9. ControlNet Inpainting
  • 5.10. ControlNet MLSD
  • 5.11. ControlNet Normalmaps
  • 5.12. ControlNet Soft Edge
  • 5.13. ControlNet IP2P (Instruct Pix2Pix)
  • 5.14. T2I Adapter
  • 5.15. Andre Populære ControlNet: QRCode Monster og IP-Adapter

6. Hvordan man Bruger Flere ControlNets

7. Oplev ComfyUI ControlNet Nu!

🌟🌟🌟 ComfyUI Online - Oplev ControlNet Workflow Nu 🌟🌟🌟

Hvis du er interesseret i at udforske ControlNet workflow, brug den følgende ComfyUI web. Den er fuldt udstyret med alle de essentielle kundeknuder og modeller, hvilket muliggør problemfri kreativitet uden behov for manuelle opsætninger. Begynd at få praktisk erfaring ved at eksperimentere med ControlNet's funktioner med det samme, eller fortsæt med denne tutorial for at lære, hvordan du bruger ControlNet effektivt.

For mere avancerede og premium ComfyUI workflows, besøg vores 🌟ComfyUI Workflow List🌟

1. Hvad er ControlNet?

ControlNet er en transformerende teknologi, der betydeligt forbedrer kapaciteterne af tekst-til-billede diffusion modeller, hvilket tillader hidtil uset rumlig kontrol i billedgenerering. Som en neuralt netværksarkitektur integrerer ControlNet problemfrit med store, fortrænede modeller som Stable Diffusion. Den udnytter den omfattende træning af disse modeller—bygget på milliarder af billeder til at introducere rumlige betingelser i billedskabelsesprocessen. Disse betingelser kan variere fra kanter og menneskelige positurer til dybde- og segmenteringskort, hvilket gør det muligt for brugere at styre billedgenereringen på måder, der ikke tidligere var mulige med tekstprompter alene.

2. De Tekniske Aspekter Bag ControlNet

Genialiteten ved ControlNet ligger i dens særprægede metodologi. Oprindeligt sikrer den modelens oprindelige parametre, hvilket sikrer, at den grundlæggende træning forbliver uændret. Derefter introducerer ControlNet en klon af modellens kodningslag til træning, ved hjælp af "zero convolutions." Disse specielt designede konvolutionslag starter med nul vægte, hvilket omhyggeligt integrerer nye rumlige betingelser. Denne tilgang forhindrer, at nogen forstyrrende støj intervenerer, hvilket bevarer modellens oprindelige færdigheder samtidig med at initiere nye læringsbaner.

3. Hvordan man Bruger ComfyUI ControlNet: Grundlæggende Trin

Traditionelt anvender stabile diffusion modeller tekstprompter som konditioneringsmekanisme til at guide genereringen af billeder, hvilket tilpasser output til specifikationerne i tekstprompten. ControlNet introducerer en yderligere form for konditionering til denne proces, hvilket forbedrer evnen til at styre det genererede billede mere præcist i henhold til både tekstuelle og visuelle input.

3.1. Indlæsning af "Apply ControlNet" Node i ComfyUI

Dette trin integrerer ControlNet i din ComfyUI workflow, hvilket muliggør anvendelsen af yderligere konditionering til din billedgenereringsproces. Det lægger grundlaget for at anvende visuel vejledning sammen med tekstprompter.

3.2. Input af "Apply ControlNet" Node

Positive og Negative Konditionering: Disse input er afgørende for at definere de ønskede resultater og de aspekter, der skal undgås i det genererede billede. De bør være forbundet til "Positive prompt" og "Negative prompt" henholdsvis, hvilket tilpasser sig den tekstuelle konditioneringsdel af processen.

ControlNet Model: Dette input bør være forbundet til outputtet af "Load ControlNet Model" noden. Dette trin er essentielt for at vælge og inkorporere enten en ControlNet eller en T2IAdaptor model i din workflow, hvilket sikrer, at diffusion modellen drager fordel af den specifikke vejledning leveret af din valgte model. Hver model, hvad enten det er en ControlNet eller en T2IAdaptor, er grundigt trænet til at påvirke billedgenereringsprocessen i henhold til visse datatyper eller stilistiske præferencer. Da funktionaliteterne af mange T2IAdaptor modeller tæt aligner med dem af ControlNet modeller, vil vores fokus hovedsageligt være på ControlNet modeller i vores efterfølgende diskussion. Vi vil dog også fremhæve nogle af de mere populære T2IAdaptors for fuldstændighedens skyld.

Preprocessor: "image" inputtet skal være forbundet til en "ControlNet Preprocessor" node, hvilket er afgørende for at tilpasse dit billede til at opfylde de specifikke krav fra den ControlNet model, du bruger. Det er imperativt at bruge den korrekte preprocessor tilpasset din valgte ControlNet model. Dette trin sikrer, at det originale billede gennemgår nødvendige modifikationer—såsom justeringer i format, størrelse, farve, eller anvendelsen af specifikke filtre—til at optimere det til ControlNet's retningslinjer. Efter denne forbehandlingsfase erstattes det originale billede med den modificerede version, som ControlNet derefter bruger. Denne proces garanterer, at dine inputbilleder er præcist forberedt til ControlNet processen.

3.3. Output af "Apply ControlNet" Node

"Apply ControlNet" noden genererer to afgørende output: Positive og Negative Konditionering. Disse output, fyldt med de nuancerede effekter af ControlNet og visuel vejledning, spiller en central rolle i at styre diffusion modellens adfærd i ComfyUI. Efter dette præsenteres du for et valg: fortsæt til KSampler for prøveudtagningsfasen for yderligere at polere det genererede billede, eller, for dem, der søger et endnu højere niveau af detaljer og tilpasning i deres skabelse, fortsæt med at lagde flere ControlNets. Denne avancerede teknik med at integrere flere ControlNets tillader en mere granulær manipulation af billedets attributter, hvilket tilbyder et forbedret værktøjssæt til skabere, der sigter mod at opnå uovertruffen præcision og kontrol i deres visuelle output.

3.4. Parametre til finjustering af "Apply ControlNet"

strength: Denne parameter bestemmer intensiteten af ControlNet's effekt på det genererede billede i ComfyUI. En værdi på 1.0 indebærer fuld styrke, hvilket betyder, at ControlNet's vejledning vil have maksimal indflydelse på diffusion modellens output. Omvendt indikerer en værdi på 0.0 ingen indflydelse, hvilket essentielt deaktiverer effekten af ControlNet på billedgenereringsprocessen.

start_percent: Denne parameter specificerer startpunktet, som en procentdel af diffusion processen, hvor ControlNet begynder at påvirke genereringen. For eksempel betyder indstilling af en startprocent på 20%, at ControlNet's vejledning vil begynde at påvirke billedgenereringen fra 20% mærket af diffusion processen og frem.

end_percent: Analogt med "Start Percent," definerer "End Percent" parameteren punktet, hvor ControlNet's indflydelse ophører. For eksempel, en end-procent på 80% ville betyde, at ControlNet's vejledning stopper med at påvirke billedgenereringen ved 80% færdiggørelsesmærket af diffusion processen, hvilket efterlader de sidste faser uberørte.

Apply ControlNet in ComfyUI

4. Hvordan man Bruger ComfyUI ControlNet: Avancerede Funktioner - Timestep Keyframes

Timestep Keyframes i ControlNet tilbyder sofistikeret kontrol over opførelsen af AI-genereret indhold, især når timing og progression er afgørende, såsom i animationer eller udviklende visuelle elementer. Her er en detaljeret gennemgang af nøgleparametrene for at hjælpe dig med at bruge dem effektivt og intuitivt:

prev_timestep_kf: Tænk på prev_timestep_kf som at holde hånd med keyframen, der kommer før i en sekvens. Ved at forbinde keyframes skaber du en glidende overgang eller en storyboard, der guider AI gennem genereringsprocessen, trin for trin, hvilket sikrer, at hver fase flyder logisk ind i den næste.

cn_weights: cn_weights er nyttige til at finjustere outputtet ved at justere specifikke funktioner inden for ControlNet under forskellige faser af genereringsprocessen.

latent_keyframe: latent_keyframe tillader dig at justere, hvor stærkt hver del af AI-modellen påvirker det endelige resultat under en bestemt fase af genereringsprocessen. For eksempel, hvis du genererer et billede, hvor forgrunden skal blive mere detaljeret, efterhånden som processen udvikler sig, kan du øge styrken for de aspekter (latents) af modellen, der er ansvarlige for forgrundsdetaljer i senere keyframes. Omvendt, hvis visse funktioner skal falme i baggrunden over tid, kan du reducere deres styrke i efterfølgende keyframes. Dette niveau af kontrol er særligt nyttigt i skabelsen af dynamiske, udviklende visuelle elementer eller i projekter, hvor præcis timing og progression er afgørende.

mask_optional: Brug opmærksomhedsmasker som spotlights, der fokuserer ControlNet's indflydelse på specifikke områder af dit billede. Uanset om det handler om at fremhæve en karakter i en scene eller understrege et baggrundselement, kan disse masker enten anvendes ensartet eller variere i intensitet, hvilket dirigerer AI's opmærksomhed præcis, hvor du ønsker det.

start_percent: start_percent markerer signalet for, hvornår din keyframe træder i kraft, målt som en procentdel af den samlede genereringsproces. At indstille dette er som at planlægge en skuespillers entré på scenen, hvilket sikrer, at de dukker op på netop det rigtige tidspunkt i forestillingen.

strength: strength giver en overordnet kontrol over den samlede indflydelse af ControlNet.

null_latent_kf_strength: For alle skuespillere (latents), som du ikke eksplicit har instrueret i denne scene (keyframe), fungerer null_latent_kf_strength som en standardinstruktion, der fortæller dem, hvordan de skal opføre sig i baggrunden. Det sikrer, at ingen del af genereringen efterlades uden vejledning, hvilket opretholder en sammenhængende output, selv i områder, du ikke specifikt har adresseret.

inherit_missing: Aktivering af inherit_missing tillader din nuværende keyframe at adoptere eventuelle ikke-specificerede indstillinger fra sin forgænger, som en yngre søskende, der arver tøj. Det er en nyttig genvej, der sikrer kontinuitet og sammenhæng uden behov for at gentage instruktioner.

guarantee_usage: guarantee_usage er din garanti for, at uanset hvad, vil den nuværende keyframe få sin tid til at skinne i processen, selvom det kun er for et kort øjeblik. Det sikrer, at hver keyframe, du har sat op, har en indflydelse, hvilket ærer din detaljerede planlægning i at vejlede AI's kreative proces.

Timestep Keyframes tilbyder den præcision, der er nødvendig for omhyggeligt at vejlede AI's kreative proces, hvilket gør det muligt for dig at skabe den narrative eller visuelle rejse præcis, som du forestiller dig den. De fungerer som et kraftfuldt værktøj til at orkestrere udviklingen af visuelle elementer, især i animation, fra åbningsscenen til afslutningen. Her er et nærmere kig på, hvordan Timestep Keyframes strategisk kan anvendes til at styre progressionen af en animation, hvilket sikrer en glidende overgang fra den indledende ramme til den sidste, perfekt tilpasset dine kunstneriske mål.

ControlNet Timestep Keyframes in ComfyUI
Adgang til ComfyUI Workflow
Dyk direkte ned i <AnimateDiff + ControlNet | Ceramic Art Style> arbejdsflow, fuldt lastet med alle essentielle kundeknuder og modeller, hvilket tillader problemfri kreativitet uden manuelle opsætninger!
Kom i gang gratis

5. Forskellige ControlNet/T2IAdaptor Modeller: Detaljeret Oversigt

Da funktionaliteterne af mange T2IAdaptor modeller tæt aligner med dem af ControlNet modeller, vil vores fokus hovedsageligt være på ControlNet modeller i vores efterfølgende diskussion. Vi vil dog også fremhæve nogle af de mere populære T2IAdaptors for fuldstændighedens skyld.

5.1. ComfyUI ControlNet Openpose

  • Openpose (=Openpose body): Den grundlæggende model inden for ControlNet, der identificerer grundlæggende kropsnøglepunkter som øjne, næse, nakke, skuldre, albuer, håndled, knæ og ankler. Den er ideel til grundlæggende menneskelig posegengivelse.
  • Openpose_face: Udvider OpenPose modellen ved at tilføje ansigtsnøglepunktsdetektion, hvilket tilbyder en mere detaljeret analyse af ansigtsudtryk og orientering. Denne ControlNet model er essentiel for projekter, der fokuserer på ansigtsudtryk.
  • Openpose_hand: Forøger OpenPose modellen med evnen til at fange indviklede detaljer af hænder og fingre, med fokus på detaljerede håndbevægelser og positioner. Denne tilføjelse forbedrer alsidigheden af OpenPose inden for ControlNet.
  • Openpose_faceonly: En specialiseret model for kun ansigtsdetaljer, der udelader kropsnøglepunkter for at koncentrere sig om at fange udtryk og ansigtsorienteringer. Denne model inden for ControlNet fokuserer udelukkende på ansigtstræk.
  • Openpose_full: En omfattende sammensmeltning af OpenPose, OpenPose_face, og OpenPose_hand modeller, der tilbyder fuld detektion af hele kroppen, ansigt og hænder for total menneskelig posegengivelse inden for ControlNet.
  • DW_Openpose_full: En forbedret version af OpenPose_full modellen, der inkorporerer yderligere forbedringer for endnu mere detaljeret og præcis posegengivelse. Denne version repræsenterer toppen af posedetektionsnøjagtighed inden for ControlNet rammeværket.

Preprocessor: Openpose eller DWpose

ComfyUI ControlNet Openpose

5.2. ComfyUI ControlNet Tile

Tile Resample modellen bruges til detaljeforbedring i billeder. Den er særligt nyttig i forbindelse med en op-skaler for at forbedre billedopløsningen samtidig med at tilføje finere detaljer, ofte brugt til at skærpe og berige teksturer og elementer i et billede.

Preprocessor: Tile

ComfyUI ControlNet Tile

5.3. ComfyUI ControlNet Canny

Canny modellen anvender Canny kantdetektionsalgoritmen, en multi-trins proces til at detektere en bred vifte af kanter i billeder. Denne model er gavnlig for at bevare de strukturelle aspekter af et billede, mens den forenkler dets visuelle sammensætning, hvilket gør den nyttig til stiliseret kunst eller forbehandling før yderligere billedmanipulation.

Preprocessors: Canny

ComfyUI ControlNet Canny

5.4. ComfyUI ControlNet Depth

Dybde modeller udleder dybdeinformation fra et 2D billede, og oversætter opfattet afstand til et gråskala dybdekort. Hver variant tilbyder en forskellig balance mellem detaljefangst og baggrundsfokus:

  • Depth Midas: Tilbyder en klassisk dybdeestimering, der balancerer detalje- og baggrundsrendering.
  • Depth Leres: Fokuserer på at forbedre detaljer med en tendens til at inkludere flere baggrundselementer.
  • Depth Leres++: Tilbyder et avanceret niveau af detaljer for dybdeinformation, ideel til komplekse scener.
  • Zoe: Rammer en balance mellem Midas og Leres modellerne i forhold til detaljeniveau.
  • Depth Anything: En nyere, forbedret model for dybdeestimering, designet til en bred vifte af scener.
  • Depth Hand Refiner: Specifikt designet til at forbedre hånddetaljer i dybdekort, nyttig til scener, hvor håndpositionering er kritisk.

Preprocessors: Depth_Midas, Depth_Leres, Depth_Zoe, Depth_Anything, MeshGraphormer_Hand_Refiner. Denne model er meget robust og kan arbejde på ægte dybdekort fra renderingsmotorer.

ComfyUI ControlNet Depth

5.5. ComfyUI ControlNet Lineart

Lineart modeller konverterer billeder til stiliserede linjetegninger, nyttige til kunstneriske gengivelser eller som en base for yderligere kreativt arbejde:

  • Lineart: Denne standard model konverterer billeder til stiliserede linjetegninger, og tilbyder en alsidig base for forskellige kunstneriske eller kreative projekter.
  • Lineart anime: Fokuserer på at generere anime-stil linjetegninger, karakteriseret ved rene og præcise linjer, hvilket gør den velegnet til projekter, der sigter mod en anime æstetik.
  • Lineart realistisk: Producerer linjetegninger med et mere realistisk touch, der fanger essensen af subjektet med større detaljer, perfekt til projekter, der kræver en livagtig repræsentation.
  • Lineart grov: Leverer en mere udtalt linjetegning med tungere, dristigere linjer, der skaber en slående effekt, der skiller sig ud, især velegnet til dristige kunstneriske udtryk.

Preprocessor kan generere detaljerede eller grove linjetegninger fra billeder (Lineart og Lineart_Coarse)

ComfyUI ControlNet Lineart

5.6. ComfyUI ControlNet Scribbles

Scribble modeller er designet til at transformere billeder til en krussedulle-lignende fremtoning, der simulerer udseendet af håndtegnede skitser. De er særligt nyttige til kunstnerisk omformning eller som et indledende skridt i en større designworkflow:

  • Scribble: Designet til at konvertere billeder til detaljerede kunstværker, der simulerer håndtegnede kruseduller eller skitser.
  • Scribble HED: Udnytter Holistically-Nested Edge Detection (HED) til at skabe konturer, der ligner håndtegnede skitser. Det anbefales til farvelægning og omformning af billeder, tilføjer en unik kunstnerisk flair til kunstværket.
  • Scribble Pidinet: Fokuserer på at detektere pixel forskelle for at producere renere linjer med reducerede detaljer, hvilket gør det ideelt til klarere, mere abstrakte repræsentationer. Scribble Pidinet er perfekt til dem, der søger skarpe kurver og lige kanter, og tilbyder et poleret udseende samtidig med at bevare essentielle detaljer
  • Scribble xdog: Anvender Extended Difference of Gaussian (xDoG) metoden til kantdetektion. Dette tillader justerbare tærskelindstillinger for at finjustere krussedulle-effekten, hvilket gør det muligt at kontrollere detaljeniveauet i dit kunstværk. xDoG er alsidig, hvilket gør det muligt for brugere at finde den perfekte balance i deres kunstneriske skabelser

Preprocessors: Scribble, Scribble_HED, Scribble_PIDI, og Scribble_XDOG

ComfyUI ControlNet Scribbles

5.7. ComfyUI ControlNet Segmentation

Segmenteringsmodeller kategoriserer billedpixels til forskellige objektklasser, hver repræsenteret af en bestemt farve. Dette er uvurderligt til at identificere og manipulere individuelle elementer i et billede, såsom at adskille forgrund fra baggrund eller differentiere objekter til detaljeret redigering.

  • Seg: Designet til at differentiere objekter i et billede ved farve, hvilket effektivt oversætter disse forskelle til adskilte elementer i outputtet. For eksempel kan det adskille møbler i en værelseslayout, hvilket gør det særligt værdifuldt til projekter, der kræver præcis kontrol over billedkomposition og redigering
  • ufade20k: Udnytter UniFormer segmenteringsmodellen trænet på ADE20K datasættet, i stand til at skelne en bred vifte af objekttyper med høj nøjagtighed.
  • ofade20k: Anvender OneFormer segmenteringsmodellen, også trænet på ADE20K, og tilbyder en alternativ tilgang til objektdifferentiering med sine unikke segmenteringskapaciteter.
  • ofcoco: Udnytter OneFormer segmentering trænet på COCO datasættet, skræddersyet til billeder med objekter kategoriseret inden for COCO datasættets parametre, hvilket letter præcis objektidentifikation og manipulation.

Acceptable Preprocessors: Sam, Seg_OFADE20K (Oneformer ADE20K), Seg_UFADE20K (Uniformer ADE20K), Seg_OFCOCO (Oneformer COCO), eller manuelt oprettede masker.

ComfyUI ControlNet Segmentation

5.8. ComfyUI ControlNet Shuffle

Shuffle modellen introducerer en ny tilgang ved at randomisere inputbilledets attributter, såsom farveskemaer eller teksturer, uden at ændre sammensætningen. Denne model er særligt effektiv til kreative udforskninger og generering af variationer af et billede med bevaret strukturel integritet, men ændret visuel æstetik. Dens randomiserede natur betyder, at hvert output er unikt, påvirket af frøv ærdien brugt i genereringsprocessen.

Preprocessors: Shuffle

ComfyUI ControlNet Shuffle

5.9. ComfyUI ControlNet Inpainting

Inpainting modeller inden for ControlNet tillader raffineret redigering inden for specifikke områder af et billede, hvilket opretholder overordnet sammenhæng samtidig med at introducere betydelige variationer eller korrektioner.

For at anvende ControlNet Inpainting, begynd med at isolere det område, du ønsker at regenerere gennem masking. Dette kan gøres ved at højreklikke på det ønskede billede og vælge "Open in MaskEditor" til modifikationer.

ComfyUI ControlNet Inpainting MaskEditor

I modsætning til andre implementeringer inden for ControlNet, omgår Inpainting behovet for en preprocessor på grund af de direkte modifikationer, der anvendes på billedet. Det er dog afgørende at videresende det redigerede billede til det latente rum via KSampler. Dette sikrer, at diffusion modellen fokuserer udelukkende på at regenerere det maskerede område, mens det opretholder integriteten af de umaskerede områder.

ComfyUI ControlNet Inpainting Model

5.10. ComfyUI ControlNet MLSD

M-LSD (Mobile Line Segment Detection) fokuserer på at detektere lige linjer, ideel til billeder med stærke arkitektoniske elementer, interiører og geometriske former. Det simplificerer scener til deres strukturelle essens, hvilket letter kreative projekter, der involverer menneskeskabte miljøer.

Preprocessors: MLSD.

ComfyUI ControlNet MLSD

5.11. ComfyUI ControlNet Normalmaps

Normalmaps muliggør simulering af komplekse lys- og tekstureffekter ved at modellere orienteringen af overflader i en visuel scene, i stedet for at stole på farvedata alene. Dette er kritisk for 3D-modellering og simulering opgaver.

  • Normal Bae: Denne metode genererer normal maps ved at udnytte normal uncertainty tilgangen. Det giver en innovativ teknik til at skildre orienteringen af overflader, hvilket forbedrer simuleringen af lyseffekter baseret på den fysiske geometri af den modellerede scene snarere end konventionelle farvebaserede metoder.
  • Normal Midas: Ved at udnytte dybdekort produceret af Midas modellen, estimerer Normal Midas nøjagtigt normal maps. Denne tilgang tillader en nuanceret simulering af overfladeteksturer og lys, baseret på dybdeinformationen af scenen, hvilket beriger den visuelle kompleksitet af 3D-modeller.

Preprocessors: Normal BAE, Normal Midas

ComfyUI ControlNet Normalmaps

5.12. ComfyUI ControlNet Soft Edge

ControlNet Soft Edge er designet til at generere billeder med blødere kanter, med fokus på detaljekontrol og naturligt udseende. Det bruger avancerede neurale netværksteknikker til præcis billedmanipulation, hvilket tilbyder større kreativ frihed og problemfri blendingsmuligheder

Robusthed: SoftEdge_PIDI_safe > SoftEdge_HED_safe >> SoftEdge_PIDI > SoftEdge_HED

Maksimal resultatskvalitet: SoftEdge_HED > SoftEdge_PIDI > SoftEdge_HED_safe > SoftEdge_PIDI_safe

I betragtning af afvejningen anbefaler vi at bruge SoftEdge_PIDI som standard. I de fleste tilfælde fungerer det meget godt.

Preprocessors: SoftEdge_PIDI, SoftEdge_PIDI_safe, SoftEdge_HED, SoftEdge_HED_safe.

ComfyUI ControlNet SoftEdge

5.13. ComfyUI ControlNet IP2P (Instruct Pix2Pix)

ControlNet IP2P (Instruct Pix2Pix) modellen skiller sig ud som en unik tilpasning inden for ControlNet rammeværket, skræddersyet til at udnytte Instruct Pix2Pix datasættet til billedtransformationer. Denne ControlNet variant adskiller sig ved at balancere mellem instruktionsprompter og beskrivelsesprompter under dens træningsfase. I modsætning til den konventionelle tilgang i officiel Instruct Pix2Pix, inkorporerer ControlNet IP2P en 50/50 blanding af disse prompttyper, hvilket forbedrer dens alsidighed og effektivitet i at generere ønskede resultater.

ComfyUI ControlNet IP2P

5.14. ComfyUI T2I Adapter

t2iadapter color: t2iadapter_color modellen er specifikt designet til at forbedre farvegengivelsen og nøjagtigheden i genererede billeder, når man bruger tekst-til-billede diffusion modeller. Ved at fokusere på farvetilpasning tillader denne model en mere nøjagtig og levende farvepalette, tættere på de beskrivelser, der er givet i tekstprompterne. Den er særlig nyttig til projekter, hvor farvetroskab og specificitet er afgørende, og tilføjer et nyt lag af realisme og detaljer til de genererede billeder.

t2iadapter style: t2iadapter_style modellen retter sig mod de stilistiske aspekter af billedgenerering, hvilket muliggør modifikation og kontrol over den kunstneriske stil i outputbillederne. Denne adapter tillader brugere at guide tekst-til-billede modellen mod at generere billeder, der overholder specifikke kunstneriske stilarter eller æstetikker, der er beskrevet i tekstprompterne. Det er et uvurderligt værktøj til kreative projekter, hvor billedets stil spiller en central rolle, og tilbyder en problemfri måde at blande traditionelle kunststilarter med moderne AI kapaciteter.

5.15. Andre Populære ComfyUI ControlNet: QRCode Monster og IP-Adapter

For disse segmenter, vil vi dedikere separate artikler til at give en grundig introduktion til hver, givet den betydelige mængde information, vi ønsker at dele.

6. Hvordan man Bruger Flere ComfyUI ControlNets

Brug af flere ComfyUI ControlNets i ComfyUI indebærer en proces med at lagde eller kæde ControlNet modeller for at forfine billedgenereringen med mere præcise kontroller over forskellige aspekter som positur, form, stil og farve.

Således kan du bygge din workflow ved at anvende en ControlNet (f.eks. OpenPose) og derefter fodre dens output ind i en anden ControlNet (f.eks. Canny). Denne lagdelte anvendelse tillader detaljeret tilpasning af billedet, hvor hver ControlNet anvender sine specifikke transformationer eller kontroller. Processen tillader en raffineret kontrol over det endelige output, integreret flere aspekter guidet af forskellige ControlNets.

🌟🌟🌟 ComfyUI Online - Oplev ControlNet Workflow Nu 🌟🌟🌟

Hvis du er interesseret i at udforske ControlNet workflow, brug den følgende ComfyUI web. Den er fuldt udstyret med alle de essentielle kundeknuder og modeller, hvilket muliggør problemfri kreativitet uden behov for manuelle opsætninger. Få praktisk erfaring og bliv fortrolig med ControlNet's funktioner nu!

For mere avancerede og premium ComfyUI workflows, besøg vores 🌟[Comfy

UI Workflow List](https://www.runcomfy.com/da/comfyui-workflows)🌟

RunComfy

© Ophavsret 2024 RunComfy. Alle rettigheder forbeholdes.

RunComfy er den førende ComfyUI platform, der tilbyder ComfyUI online miljø og tjenester, sammen med ComfyUI-arbejdsgange med fantastiske visuals.