ComfyUI  >  Opplæringer  >  Dypdykk i ComfyUI ControlNet: Med Depth, OpenPose, Canny, Lineart, Softedge, Scribble, Seg...

Hei der! I denne guiden skal vi dykke inn i den spennende verdenen av ControlNet i ComfyUI. La oss utforske sammen hva det bringer til bordet og hvordan det kan krydre prosjektene dine!

Vi vil dekke:

1. Hva er ControlNet?

2. De Tekniske Aspektene Bak ControlNet

3. Hvordan Bruke ComfyUI ControlNet: Grunnleggende Steg

  • 3.1. Laste inn "Apply ControlNet" Node i ComfyUI
  • 3.2. Inndata til "Apply ControlNet" Node
  • 3.3. Utdata fra "Apply ControlNet" Node
  • 3.4. Parametere for finjustering av "Apply ControlNet"

4. Hvordan Bruke ComfyUI ControlNet: Avanserte Funksjoner - Timestep Keyframes

5. Ulike ControlNet/T2IAdaptor Modeller: Detaljert Oversikt

  • 5.1. ControlNet Openpose
  • 5.2. ControlNet Tile
  • 5.3. ControlNet Canny
  • 5.4. ControlNet Depth
  • 5.5. ControlNet Lineart
  • 5.6. ControlNet Scribbles
  • 5.7. ControlNet Segmentering
  • 5.8. ControlNet Shuffle
  • 5.9. ControlNet Inpainting
  • 5.10. ControlNet MLSD
  • 5.11. ControlNet Normalmaps
  • 5.12. ControlNet Soft Edge
  • 5.13. ControlNet IP2P (Instruct Pix2Pix)
  • 5.14. T2I Adapter
  • 5.15. Andre Populære ControlNet: QRCode Monster og IP-Adapter

6. Hvordan Bruke Flere ControlNets

7. Opplev ComfyUI ControlNet Nå!

🌟🌟🌟 ComfyUI Online - Opplev ControlNet Workflow Nå 🌟🌟🌟

Hvis du er interessert i å utforske ControlNet workflow, bruk følgende ComfyUI web. Den kommer fullt utstyrt med alle nødvendige kundeknuter og modeller, som muliggjør sømløs kreativitet uten behov for manuelle oppsett. Start med å få praktisk erfaring ved å eksperimentere med ControlNets funksjoner umiddelbart, eller fortsett med denne veiledningen for å lære hvordan du bruker ControlNet effektivt.

For mer avanserte og premium ComfyUI workflows, besøk vår 🌟ComfyUI Workflow List🌟

1. Hva er ControlNet?

ControlNet er en transformativ teknologi som betydelig forbedrer evnene til tekst-til-bilde diffusjonsmodeller, som muliggjør enestående romlig kontroll i bilde generasjon. Som en nevralt nettverksarkitektur integrerer ControlNet sømløst med storskala, forhåndstrente modeller som Stable Diffusion. Den utnytter den omfattende treningen av disse modellene—bygget på milliarder av bilder for å introdusere romlige betingelser i bilde skapelsesprosessen. Disse betingelsene kan variere fra kanter og menneskelige positurer til dybde- og segmenteringskart, som gjør det mulig for brukere å veilede bilde generasjonen på måter som ikke tidligere var mulig med tekstprompt alene.

2. De Tekniske Aspektene Bak ControlNet

Genialiteten til ControlNet ligger i dens særegne metodikk. Først sikrer den modellens opprinnelige parametere, og sørger for at den grunnleggende treningen forblir uendret. Deretter introduserer ControlNet en klone av modellens koding lag for trening, som utnytter "zero convolutions." Disse spesialdesignede konvolusjonslagene starter med null vekter, og integrerer forsiktig nye romlige betingelser. Denne tilnærmingen forhindrer at noe forstyrrende støy griper inn, og bevarer modellens opprinnelige dyktighet mens den initierer nye læringsbaner.

3. Hvordan Bruke ComfyUI ControlNet: Grunnleggende Steg

Tradisjonelt bruker stabile diffusjonsmodeller tekstprompt som betingelsesmekanisme for å veilede genereringen av bilder, og tilpasse utdataene til spesifikasjonene i tekstprompten. ControlNet introduserer en tillegg form for betingelse til denne prosessen, som forbedrer evnen til å styre den genererte bildene mer presist etter både tekst- og visuelle inndata.

3.1. Laste inn "Apply ControlNet" Node i ComfyUI

Dette trinnet integrerer ControlNet i din ComfyUI workflow, som muliggjør anvendelsen av ytterligere betingelser til din bilde genereringsprosess. Det legger grunnlaget for å anvende visuell veiledning sammen med tekstprompt.

3.2. Inndata til "Apply ControlNet" Node

Positive og Negative Betingelser: Disse inndataene er avgjørende for å definere ønskede utfall og aspektene som skal unngås i det genererte bildet. De bør kobles til "Positive prompt" og "Negative prompt" henholdsvis, i samsvar med den tekstuelle betingelsesdelen av prosessen.

ControlNet Modell: Denne inndataen bør kobles til utdataen fra "Load ControlNet Model" noden. Dette trinnet er essensielt for å velge og inkorporere enten en ControlNet eller en T2IAdaptor modell i din workflow, og dermed sikre at diffusjonsmodellen drar nytte av den spesifikke veiledningen gitt av din valgte modell. Hver modell, enten en ControlNet eller en T2IAdaptor, er grundig trent for å påvirke bilde genereringsprosessen i henhold til visse datatyper eller stilistiske preferanser. Gitt at funksjonaliteten til mange T2IAdaptor modeller tett samsvarer med de til ControlNet modeller, vil vårt fokus hovedsakelig være på ControlNet modeller i vår påfølgende diskusjon. Imidlertid vil vi også fremheve noen av de mer populære T2IAdaptors for fullstendighetens skyld.

Preprosessor: "image" inndataen må kobles til en "ControlNet Preprocessor" node, som er avgjørende for å tilpasse bildet ditt til å møte de spesifikke kravene til ControlNet modellen du bruker. Det er imperativt å bruke den riktige preprosessoren tilpasset til din valgte ControlNet modell. Dette trinnet sikrer at det opprinnelige bildet gjennomgår nødvendige modifikasjoner — som justeringer i format, størrelse, farge, eller anvendelse av spesifikke filtre — for å optimalisere det for ControlNets retningslinjer. Etter denne forhåndsbehandlingsfasen erstattes det opprinnelige bildet med den modifiserte versjonen, som ControlNet deretter benytter. Denne prosessen garanterer at dine inndata bilder er nøyaktig forberedt for ControlNet prosessen.

3.3. Utdata fra "Apply ControlNet" Node

"Apply ControlNet" noden genererer to avgjørende utdata: Positive og Negative Betingelser. Disse utdataene, gjennomsyret med de nyanserte effektene av ControlNet og visuell veiledning, spiller en sentral rolle i å styre diffusjonsmodellens oppførsel i ComfyUI. Etter dette står du overfor et valg: fortsett til KSampler for samplingsfasen for å videre polere det genererte bildet, eller, for de som forfølger et enda høyere nivå av detaljer og tilpasning i sin skapelse, fortsett med å lag flere ControlNets. Denne avanserte teknikken for å integrere flere ControlNets tillater en mer granulær manipulering av bildets attributter, og tilbyr et forbedret verktøysett for skapere som søker å oppnå enestående presisjon og kontroll i sine visuelle utganger.

3.4. Parametere for finjustering av "Apply ControlNet"

strength: Denne parameteren bestemmer intensiteten av ControlNets effekt på det genererte bildet i ComfyUI. En verdi på 1.0 innebærer full styrke, noe som betyr at ControlNets veiledning vil ha maksimal innflytelse på diffusjonsmodellens utdata. Tvert imot indikerer en verdi på 0.0 ingen innflytelse, og deaktiverer i hovedsak effekten av ControlNet på bilde genereringsprosessen.

start_percent: Denne parameteren spesifiserer startpunktet, som en prosentandel av diffusjonsprosessen, hvor ControlNet begynner å påvirke genereringen. For eksempel, å sette en startprosent på 20% betyr at ControlNets veiledning vil begynne å påvirke bilde genereringen fra 20% merket av diffusjonsprosessen og utover.

end_percent: Analogt til "Start Percent," definerer "End Percent" parameteren punktet hvor ControlNets innflytelse opphører. For eksempel vil en end prosent på 80% bety at ControlNets veiledning stopper å påvirke bilde genereringen ved 80% fullføringsmerket av diffusjonsprosessen, og lar de siste fasene være upåvirket.

Apply ControlNet in ComfyUI

4. Hvordan Bruke ComfyUI ControlNet: Avanserte Funksjoner - Timestep Keyframes

Timestep Keyframes i ControlNet tilbyr sofistikert kontroll over oppførselen til AI-generert innhold, spesielt når timing og progresjon er avgjørende, som i animasjoner eller utviklende visuelle elementer. Her er en detaljert oversikt over nøkkelparametrene for å hjelpe deg med å bruke dem effektivt og intuitivt:

prev_timestep_kf: Tenk på prev_timestep_kf som å holde hender med keyframe som kommer før i en sekvens. Ved å koble sammen keyframes, skaper du en jevn overgang eller en storyboard som veileder AI gjennom genereringsprosessen, trinn for trinn, og sikrer at hver fase flyter logisk inn i den neste.

cn_weights: cn_weights er nyttige for å finjustere utdataene ved å justere spesifikke funksjoner innen ControlNet under forskjellige faser av genereringsprosessen.

latent_keyframe: latent_keyframe lar deg justere hvor sterkt hver del av AI-modellen påvirker det endelige resultatet under en bestemt fase av genereringsprosessen. For eksempel, hvis du genererer et bilde hvor forgrunnen skal bli mer detaljert etter hvert som prosessen utvikler seg, kan du øke styrken for aspektene (latents) av modellen som er ansvarlige for forgrunnsdetaljer i senere keyframes. Tvert imot, hvis visse funksjoner skal falme i bakgrunnen over tid, kan du redusere deres styrke i påfølgende keyframes. Dette kontrollnivået er spesielt nyttig i å skape dynamiske, utviklende visuelle elementer eller i prosjekter hvor presis timing og progresjon er avgjørende.

mask_optional: Bruk oppmerksomhetsmasker som spotlights, som fokuserer ControlNets innflytelse på spesifikke områder av bildet ditt. Enten det er å fremheve en karakter i en scene eller understreke et bakgrunnselement, kan disse maskene enten anvendes jevnt eller variere i intensitet, og dirigere AI's oppmerksomhet nøyaktig der du vil ha den.

start_percent: start_percent markerer cue for når din keyframe kommer i spill, målt som en prosentandel av den totale genereringsprosessen. Å sette dette er som å planlegge en skuespillers entré på scenen, og sikre at de dukker opp på akkurat riktig øyeblikk i forestillingen.

strength: strength gir en høynivåkontroll over den samlede innflytelsen til ControlNet.

null_latent_kf_strength: For alle aktører (latents) du ikke eksplisitt har rettet i denne scenen (keyframe), fungerer null_latent_kf_strength som en standard instruksjon, og forteller dem hvordan de skal opptre i bakgrunnen. Det sikrer at ingen del av genereringen blir uten veiledning, og opprettholder en sammenhengende utdata selv i områder du ikke har spesifikt adressert.

inherit_missing: Å aktivere inherit_missing lar din nåværende keyframe adoptere eventuelle uspesifiserte innstillinger fra sin forgjenger, som en yngre søsken som arver klær. Det er en nyttig snarvei som sikrer kontinuitet og sammenheng uten å måtte gjenta instruksjoner.

guarantee_usage: guarantee_usage er din garanti for at, uansett hva, vil den nåværende keyframe ha sitt øyeblikk å skinne i prosessen, selv om det bare er for en kort stund. Det sikrer at hver keyframe du har satt opp har en innvirkning, og hedrer din detaljerte planlegging i å veilede AI's kreative prosess.

Timestep Keyframes tilbyr presisjonen som trengs for å nøye veilede AI's kreative prosess, og gjør det mulig for deg å utforme fortellingen eller den visuelle reisen nøyaktig som du forestiller deg det. De fungerer som et kraftig verktøy for å orkestrere utviklingen av visuelle elementer, spesielt i animasjon, fra åpningsscenen helt til avslutningen. Her er en nærmere titt på hvordan Timestep Keyframes kan brukes strategisk for å håndtere progresjonen av en animasjon, og sikre en sømløs overgang fra den første rammen til den siste, og perfekt tilpasse seg dine kunstneriske mål.

ControlNet Timestep Keyframes in ComfyUI
Få tilgang til ComfyUI Workflow
Dykk direkte inn i <AnimateDiff + ControlNet + IPAdapter V1 | Cartoon Style> arbeidsflyt, fullastet med alle essensielle kundeknuter og modeller, som muliggjør sømløs kreativitet uten manuelle oppsett!
Kom i gang gratis

5. Ulike ControlNet/T2IAdaptor Modeller: Detaljert Oversikt

Gitt at funksjonaliteten til mange T2IAdaptor modeller tett samsvarer med de til ControlNet modeller, vil vårt fokus hovedsakelig være på ControlNet modeller i vår påfølgende diskusjon. Imidlertid vil vi også fremheve noen av de mer populære T2IAdaptors for fullstendighetens skyld.

5.1. ComfyUI ControlNet Openpose

  • Openpose (=Openpose body): Den grunnleggende modellen innen ControlNet som identifiserer grunnleggende kroppspunkter som øyne, nese, nakke, skuldre, albuer, håndledd, knær og ankler. Den er ideell for grunnleggende menneskelig posereplikasjon.
  • Openpose_face: Utvider OpenPose modellen ved å legge til ansiktspunktsdeteksjon, og tilbyr en mer detaljert analyse av ansiktsuttrykk og orientering. Denne ControlNet modellen er essensiell for prosjekter som fokuserer på ansiktsuttrykk.
  • Openpose_hand: Forsterker OpenPose modellen med evnen til å fange intrikate detaljer av hender og fingre, med fokus på detaljerte håndbevegelser og posisjoner. Denne tilleggelsen øker allsidigheten til OpenPose innen ControlNet.
  • Openpose_faceonly: En spesialisert modell for kun ansiktsdetaljer, som utelater kroppspunkter for å konsentrere seg om å fange uttrykk og ansiktsorienteringer. Denne modellen innen ControlNet fokuserer utelukkende på ansiktsfunksjoner.
  • Openpose_full: En omfattende sammenslåing av OpenPose, OpenPose_face, og OpenPose_hand modeller, og tilbyr fullstendig deteksjon av hele kroppen, ansikt og hender for total menneskelig posereplikasjon innen ControlNet.
  • DW_Openpose_full: En forbedret versjon av OpenPose_full modellen, som inkorporerer ytterligere forbedringer for enda mer detaljerte og nøyaktige posisjonsdeteksjoner. Denne versjonen represent "DW_Openpose_full": En forbedret versjon av OpenPose_full modellen, som inkorporerer ytterligere forbedringer for enda mer detaljerte og nøyaktige posisjonsdeteksjoner. Denne versjonen representerer toppunktet av posisjonsdeteksjonsnøyaktighet innen ControlNet-rammeverket.

Preprosessor: Openpose eller DWpose

ComfyUI ControlNet Openpose

5.2. ComfyUI ControlNet Tile

Tile Resample modellen brukes for detaljforbedring i bilder. Den er spesielt nyttig i kombinasjon med en oppskalerer for å forbedre bildekvaliteten mens den legger til finere detaljer, ofte brukt for å skjerpe og berike teksturer og elementer i et bilde.

Preprosessor: Tile

ComfyUI ControlNet Tile

5.3. ComfyUI ControlNet Canny

Canny modellen bruker Canny kantdeteksjonsalgoritmen, en flertrinnsprosess for å oppdage et bredt spekter av kanter i bilder. Denne modellen er gunstig for å bevare de strukturelle aspektene av et bilde mens den forenkler det visuelle sammensetningen, noe som gjør den nyttig for stilisert kunst eller forhåndsbehandling før videre bilde manipulering.

Preprosessorer: Canny

ComfyUI ControlNet Canny

5.4. ComfyUI ControlNet Depth

Depth modeller utleder dybdeinformasjon fra et 2D-bilde, og oversetter oppfattet avstand til et gråtonet dybdekart. Hver variant tilbyr en forskjellig balanse mellom detaljfanging og bakgrunnsvekt:

  • Depth Midas: Gir en klassisk dybdemåling, balanserer detaljer og bakgrunns gjengivelse.
  • Depth Leres: Fokuserer på å forbedre detaljer med en tendens til å inkludere flere bakgrunnselementer.
  • Depth Leres++: Tilbyr et avansert nivå av detaljer for dybdeinformasjon, ideell for komplekse scener.
  • Zoe: Oppnår en balanse mellom Midas og Leres modellene når det gjelder detaljnivå.
  • Depth Anything: En nyere, forbedret modell for dybdemåling, designet for et bredt spekter av scener.
  • Depth Hand Refiner: Spesielt designet for å forbedre hånddetaljer i dybdekart, nyttig for scener hvor håndposisjonering er kritisk.

Preprosessorer: Depth_Midas, Depth_Leres, Depth_Zoe, Depth_Anything, MeshGraphormer_Hand_Refiner. Denne modellen er svært robust og kan arbeide på ekte dybdekart fra rendringsmotorer.

ComfyUI ControlNet Depth

5.5. ComfyUI ControlNet Lineart

Lineart modeller konverterer bilder til stiliserte linjetegninger, nyttige for kunstneriske gjengivelser eller som en base for videre kreativt arbeid:

  • Lineart: Denne standardmodellen konverterer bilder til stiliserte linjetegninger, og tilbyr en allsidig base for ulike kunstneriske eller kreative prosjekter.
  • Lineart anime: Fokuserer på å generere anime-stil linjetegninger, karakterisert av rene og presise linjer, noe som gjør den egnet for prosjekter som sikter mot en anime-estetikk.
  • Lineart realistisk: Produserer linjetegninger med en mer realistisk touch, og fanger essensen av motivet med større detalj, perfekt for prosjekter som krever en livaktig representasjon.
  • Lineart grov: Leverer en mer uttalt linjetegning med tyngre, fetere linjer, og skaper en slående effekt som skiller seg ut, spesielt egnet for dristige kunstneriske uttrykk.

Preprosessoren kan generere detaljerte eller grove linjetegninger fra bilder (Lineart og Lineart_Coarse)

ComfyUI ControlNet Lineart

5.6. ComfyUI ControlNet Scribbles

Scribble modeller er designet for å transformere bilder til en krusedull-lignende utseende, og simulerer utseendet til håndtegnede skisser. De er spesielt nyttige for kunstnerisk omforming eller som et forberedende trinn i en større design workflow:

  • Scribble: Designet for å konvertere bilder til detaljerte kunstverk som simulerer håndtegnede kruseduller eller skisser.
  • Scribble HED: Bruker Holistically-Nested Edge Detection (HED) for å lage konturer som ligner på håndtegnede skisser. Det anbefales for fargelegging og omforming av bilder, og legger til en unik kunstnerisk flair til kunstverket.
  • Scribble Pidinet: Fokuserer på å oppdage pikselforskjeller for å produsere renere linjer med redusert detalj, noe som gjør det ideelt for klarere, mer abstrakte representasjoner. Scribble Pidinet er perfekt for de som søker skarpe kurver og rette kanter, og tilbyr et polert utseende mens de bevarer essensielle detaljer.
  • Scribble xdog: Bruker Extended Difference of Gaussian (xDoG) metoden for kantdeteksjon. Dette tillater justerbare terskelinnstillinger for å finjustere krusedulleffekten, noe som gjør det mulig å kontrollere detaljnivået i kunstverket ditt. xDoG er allsidig, og muliggjør brukere å finne den perfekte balansen i sine kunstneriske kreasjoner.

Preprosessorer: Scribble, Scribble_HED, Scribble_PIDI, og Scribble_XDOG

ComfyUI ControlNet Scribbles

5.7. ComfyUI ControlNet Segmentering

Segmenteringsmodeller kategoriserer bilde piksler i distinkte objektklasser, hver representert av en spesifikk farge. Dette er uvurderlig for å identifisere og manipulere individuelle elementer i et bilde, som å skille forgrunn fra bakgrunn eller differensiere objekter for detaljert redigering.

  • Seg: Designet for å differensiere objekter i et bilde etter farge, og effektivt oversette disse forskjellene til distinkte elementer i utdataene. For eksempel kan det skille møbler i en romlayout, noe som gjør det spesielt verdifullt for prosjekter som krever presis kontroll over bildekonstruksjon og redigering.
  • ufade20k: Bruker UniFormer segmenteringsmodellen trent på ADE20K datasettet, i stand til å skille et bredt spekter av objekttyper med høy nøyaktighet.
  • ofade20k: Bruker OneFormer segmenteringsmodellen, også trent på ADE20K, og tilbyr en alternativ tilnærming til objektdifferensiering med sine unike segmenteringskapasiteter.
  • ofcoco: Utnytter OneFormer segmentering trent på COCO datasettet, skreddersydd for bilder med objekter kategorisert innenfor COCO datasettets parametere, og muliggjør presis objektidentifikasjon og manipulasjon.

Akseptable Preprosessorer: Sam, Seg_OFADE20K (Oneformer ADE20K), Seg_UFADE20K (Uniformer ADE20K), Seg_OFCOCO (Oneformer COCO), eller manuelt opprettede masker.

ComfyUI ControlNet Segmentering

5.8. ComfyUI ControlNet Shuffle

Shuffle modellen introduserer en ny tilnærming ved å randomisere input bildets attributter, som fargesammensetninger eller teksturer, uten å endre komposisjonen. Denne modellen er spesielt effektiv for kreative utforskninger og generering av variasjoner av et bilde med bevart strukturell integritet, men endrede visuelle estetikk. Dens randomiserte natur betyr at hver utdata er unik, påvirket av frøverdien brukt i genereringsprosessen.

Preprosessorer: Shuffle

ComfyUI ControlNet Shuffle

5.9. ComfyUI ControlNet Inpainting

Inpainting modeller innen ControlNet tillater raffinert redigering innenfor spesifikke områder av et bilde, og opprettholder generell sammenheng samtidig som det introduserer betydelige variasjoner eller korrigeringer.

For å bruke ControlNet Inpainting, start med å isolere området du ønsker å regenerere gjennom maskering. Dette kan gjøres ved å høyreklikke på ønsket bilde og velge "Open in MaskEditor" for modifikasjoner.

ComfyUI ControlNet Inpainting MaskEditor

I motsetning til andre implementeringer innen ControlNet, omgår Inpainting behovet for en preprosessor på grunn av de direkte modifikasjonene som anvendes på bildet. Imidlertid er det viktig å sende det redigerte bildet til latentrommet via KSampler. Dette sikrer at diffusjonsmodellen fokuserer utelukkende på å regenerere det maskerte området, samtidig som integriteten til de umaskerte områdene opprettholdes.

ComfyUI ControlNet Inpainting Model

5.10. ComfyUI ControlNet MLSD

M-LSD (Mobile Line Segment Detection) fokuserer på å oppdage rette linjer, ideell for bilder med sterke arkitektoniske elementer, interiør og geometriske former. Den forenkler scener til deres strukturelle essens, og letter kreative prosjekter som involverer menneskeskapte miljøer.

Preprosessorer: MLSD.

ComfyUI ControlNet MLSD

5.11. ComfyUI ControlNet Normalmaps

Normalmaps muliggjør simulering av komplekse lys- og tekstureffekter ved å modellere orienteringen av overflater i en visuell scene, i stedet for å stole på fargedata alene. Dette er kritisk for 3D-modellering og simulering oppgaver.

  • Normal Bae: Denne metoden genererer normal maps ved å utnytte normal usikkerhet tilnærming. Det gir en innovativ teknikk for å skildre orienteringen av overflater, og forbedrer simuleringen av lys effekter basert på den fysiske geometrien til den modellerte scenen snarere enn konvensjonelle fargebaserte metoder.
  • Normal Midas: Ved å bruke dybdekart produsert av Midas modellen, estimerer Normal Midas nøyaktig normal maps. Denne tilnærmingen tillater en nyansert simulering av overflateteksturer og lys, basert på dybdeinformasjonen i scenen, og beriker den visuelle kompleksiteten til 3D-modeller.

Preprosessorer: Normal BAE, Normal Midas

ComfyUI ControlNet Normalmaps

5.12. ComfyUI ControlNet Soft Edge

ControlNet Soft Edge er designet for å generere bilder med mykere kanter, med fokus på detaljkontroll og naturlig utseende. Den bruker avanserte nevrale nettverksteknikker for presis bilde manipulasjon, og tilbyr større kreativ frihet og sømløse blandingsmuligheter

Robusthet: SoftEdge_PIDI_safe > SoftEdge_HED_safe >> SoftEdge_PIDI > SoftEdge_HED

Maksimal resultatkvalitet: SoftEdge_HED > SoftEdge_PIDI > SoftEdge_HED_safe > SoftEdge_PIDI_safe

Med tanke på avveiningen, anbefaler vi å bruke SoftEdge_PIDI som standard. I de fleste tilfeller fungerer det veldig bra.

Preprosessorer: SoftEdge_PIDI, SoftEdge_PIDI_safe, SoftEdge_HED, SoftEdge_HED_safe.

ComfyUI ControlNet SoftEdge

5.13. ComfyUI ControlNet IP2P (Instruct Pix2Pix)

ControlNet IP2P (Instruct Pix2Pix) modellen skiller seg ut som en unik tilpasning innen ControlNet-rammeverket, tilpasset for å utnytte Instruct Pix2Pix datasettet for bilde transformasjoner. Denne ControlNet varianten skiller seg ut ved å balansere mellom instruksjons prompts og beskrivelses prompts under treningsfasen. I motsetning til den konvensjonelle tilnærmingen i offisiell Instruct Pix2Pix, inkorporerer ControlNet IP2P en 50/50 blanding av disse prompt typene, og forbedrer dens allsidighet og effektivitet i å generere ønskede utfall.

ComfyUI ControlNet IP2P

5.14. ComfyUI T2I Adapter

t2iadapter color: t2iadapter_color modellen er spesifikt designet for å forbedre farge representasjonen og nøyaktigheten i genererte bilder når du bruker tekst-til-bilde diffusjonsmodeller. Ved å fokusere på farge tilpasning, tillater denne modellen en mer nøyaktig og levende fargepalett, tett tilpasset beskrivelsene gitt i tekstprompts. Den er spesielt nyttig for prosjekter hvor fargefidelitet og spesifisitet er avgjørende, og legger til et nytt lag av realisme og detalj til de genererte bildene.

t2iadapter style: t2iadapter_style modellen retter seg mot de stilistiske aspektene av bilde generering, og muliggjør modifikasjon og kontroll over den kunstneriske stilen til utdata bildene. Denne adapteren tillater brukere å veilede tekst-til-bilde modellen mot å generere bilder som holder seg til spesifikke kunstneriske stiler eller estetikk beskrevet i tekstprompts. Det er et uvurderlig verktøy for kreative prosjekter hvor stilen til bildet spiller en sentral rolle, og tilbyr en sømløs måte å blande tradisjonelle kunststiler med moderne AI-kapasiteter.

5.15. Andre Populære ComfyUI ControlNet: QRCode Monster og IP-Adapter

For disse segmentene vil vi dedikere separate artikler for å gi en grundig introduksjon til hver, gitt den betydelige mengden informasjon vi ønsker å dele.

6. Hvordan Bruke Flere ComfyUI ControlNets

Bruk av flere ComfyUI ControlNets i ComfyUI innebærer en prosess med lagdeling eller kjeding av ControlNet modeller for å raffinere bilde genereringen med mer presise kontroller over ulike aspekter som posisjon, form, stil og farge.

Dermed kan du bygge din workflow ved å anvende en ControlNet (f.eks., OpenPose) og deretter mate utdataene inn i en annen ControlNet (f.eks., Canny). Denne lagdelte anvendelsen tillater detaljert tilpasning av bildet, hvor hver ControlNet anvender sine spesifikke transformasjoner eller kontroller. Prosessen tillater en raffinert kontroll over den endelige utdataen, og integrerer flere aspekter veiledet av forskjellige ControlNets.

🌟🌟🌟 ComfyUI Online - Opplev ControlNet Workflow Nå 🌟🌟🌟

Hvis du er interessert i å utforske ControlNet workflow, bruk følgende ComfyUI web. Den kommer fullt utstyrt med alle nødvendige kundeknuter og modeller, som muliggjør sømløs kreativitet uten behov for manuelle oppsett. Få praktisk erfaring og bli kjent med ControlNets funksjoner nå!

For mer avanserte og premium ComfyUI workflows, besøk vår 🌟ComfyUI Workflow List🌟

RunComfy

© Opphavsrett 2024 RunComfy. Alle Rettigheter Forbeholdt.

RunComfy er den fremste ComfyUI plattformen, som tilbyr ComfyUI online miljø og tjenester, sammen med ComfyUI arbeidsflyter med fantastiske visuelle effekter.