Updated: 5/28/2024
Hei der! 🌟 I dag skal vi utforske kunsten å erstatte og fikse ansikter i bilder og videoer med noe superkult: Face Detailer ComfyUI. Ta frem dine digitale pensler og la oss bli kunstneriske!
Vi vil dekke:
Jeg tror du kanskje er kjent med eller har hørt om After Detailer (ADetailer) utvidelsen for Automatic111, brukt for å fikse ansikter. En lignende funksjon til denne utvidelsen, kjent som Face Detailer, finnes i ComfyUI og er en del av Impact Pack Node. Derfor, hvis du ønsker å bruke ADetailer i ComfyUI, bør du velge Face Detailer fra Impact Pack i ComfyUI i stedet.
ComfyUI Impact Pack fungerer som din digitale verktøykasse for bildeforbedring, lik en sveitsisk armékniv for dine bilder. Den er utstyrt med ulike moduler som Detector, Detailer, Upscaler, Pipe, og mer. Høydepunktet er Face Detailer, som enkelt gjenoppretter ansikter i bilder, videoer og animasjoner.
Se videoen ovenfor, laget ved hjelp av Face Detailer ComfyUI Arbeidsflyt. Nå kan du oppleve Face Detailer Arbeidsflyt uten noen installasjoner. Alt er satt opp for deg i en skybasert ComfyUI, forhåndslastet med Impact Pack - Face Detailer node og hver modell som kreves for en sømløs opplevelse. Du kan kjøre denne Face Detailer Arbeidsflyten nå eller fortsette å lese denne veiledningen om hvordan du bruker den og deretter prøve den senere.
Okay, la oss få hendene skitne med Face Detailer ComfyUI. Face Detailer noden kan virke kompleks ved første øyekast, men frykt ikke, vi skal bryte det ned bit for bit. Ved å forstå hver inngang, utgang og parameter vil du håndtere dette kraftige verktøyet som en proff på null tid.
For å finne Face Detailer i ComfyUI, gå til Add Node → Impact Pack → Simple → Face Detailer / Face Detailer (pipe).
La oss starte med "Face Detailer" og deretter dykke inn i "Face Detailer Pipe".
I denne veiledningen skal vi dykke inn i hvordan man fikser ansikter eller erstatter ansikter i videoer. Videoen er generert ved hjelp av AnimateDiff. Hvis du er ivrig etter å lære mer om AnimateDiff, har vi en dedikert AnimateDiff veiledning!
Hvis du er mer komfortabel med å jobbe med bilder, bytt bare ut nodene relatert til videoen med de som er relatert til bildet. Face Detailer er allsidig nok til å håndtere både video og bilde.
La oss starte med bildeinngangen (øverste venstre knapp i Face Detailer), som betyr å mate et bilde eller video inn i Face Detailer ComfyUI. Dette er hvor transformasjonen begynner! Her mater vi Face Detailer med videoen generert av AnimateDiff.
Du er sannsynligvis allerede kjent med disse innstillingene. Vi hopper over det grunnleggende og nevner bare at promptene - både positive og negative - spiller en avgjørende rolle her. Vi bruker de samme promptene som genererte videoen. Du har imidlertid fleksibiliteten til å tilpasse disse promptene, spesielt for ansiktet du har til hensikt å erstatte.
Her er en interessant bit: ved å bruke de samme promptene som bildegenereringen fører til ansiktsgjenoppretting. På den annen side, forskjellige prompt betyr at du velger en fullstendig ansiktserstatning. Valget er ditt!
Tips: Bruk "To Basic Pipe" og "From Basic Pipe"
For å forenkle prosessen med å koble mange noder, bruk "Pipe"-systemet. Start med "To Basic Pipe," en inngangskombinator, for å samle forskjellige innganger. Deretter bruker du "From Basic Pipe" for å pakke ut disse inngangene. Koble ganske enkelt disse to rørene, og du vil ha alle nødvendige innganger klare for rask og effektiv integrasjon.
BBox-modellene spesialiserer seg på å identifisere elementer ved hjelp av bounding boxes, mens Segm/person-modellene bruker masker for deteksjon.
I begge tilfeller, enten det er BBox Detector eller Segm Detector, bruker vi "Ultral Litic Detector Provider"-noden. Det er imidlertid viktig å merke seg at for BBox Detector bruker vi spesifikt bbox/face_yolov8m og bbox/hand_yolov8s modellene. I kontrast, segm/person_yolov8m-seg modellen brukes utelukkende for Segm Detector.
Det som følger gjelder kun for BBox Detector. Derfor vil du observere at forhåndsvisningen av det beskårne og forbedrede bildet vises som en boks.
Deretter, når vi kombinerer evnene til både BBox Detector og Segm Detector, og integrerer Sam-modellen, tar forhåndsvisningen av det beskårne og forbedrede bildet et maskelignende utseende.
Guide Size: Guide size for BBX fokuserer Face Detailer på bounding box ansiktsområdet (som vist i forhåndsvisningen av det beskårne forbedrede bildet). Standardinnstillingen er 256, noe som betyr at hvis bounding box ansiktsområdet er mindre enn 256 piksler, skalerer systemet det automatisk opp til minst 256 piksler.
Max Size: Max size setter den øvre grensen for hvor stort det beskårne området kan være (som vist i forhåndsvisningen av det beskårne forfinede bildet). Denne grensen er for å forhindre at området blir for stort, noe som kan føre til andre problemer. Standard max size er 768 piksler.
Opprettholde et Optimalt Område: Ved å sette disse parametrene holder vi bildestørrelsen innenfor et 256 til 768-pikselområde, ideelt for SD 1.5 Checkpoint. Imidlertid, hvis du bytter til SDXL Checkpoint-modellen, kjent for bedre ytelse med større bilder, kan det være fordelaktig å justere guide size til 512 og max size til 1024. Denne justeringen er verdt å eksperimentere med.
Guide Size for: Under guide size er det et alternativ merket "guide size for bbox". Dette lar deg flytte fokuset til beskjæringsområdet, som er et større område enn bounding box ansiktsområdet.
BBX Crop Factor: BBX crop factor er for tiden satt til 3. Å redusere crop factor til 1.0 betyr et mindre beskjæringsområde, likt ansiktsområdet. Når det er satt til 3, indikerer det at beskjæringsområdet er 3 ganger større enn ansiktsområdet.
Essensen av å justere crop factor ligger i å finne en balanse mellom å gi tilstrekkelig fokus for Face Detailer og tillate nok plass for kontekstuell blanding. Å sette det til 3 betyr at beskjæringsområdet inkluderer litt mer av den omkringliggende konteksten, som generelt er fordelaktig. Du bør imidlertid også ta hensyn til størrelsen på ansiktet i bildet når du bestemmer deg for riktig innstilling.
Feather-innstillingen bestemmer i hvilken grad bildets kanter eller inpaintede områder smelter sømløst sammen med resten av bildet. Jeg setter det vanligvis til fem, noe som fungerer godt for de fleste tilfeller. Men hvis du merker at inpaintingen i bildene dine har spesielt harde kanter, kan du vurdere å øke denne verdien. Siden vi ikke observerer noen harde kanter i dette eksempelet, er det ingen umiddelbar grunn til å justere det.
Aktivering av Noise Mask dirigerer modellen effektivt til å fokusere sine støy- og avstøy-operasjoner utelukkende på det maskerte området. Dette forvandler bounding box til en maske, som nøyaktig indikerer områdene hvor støy påføres og deretter forfines. Denne funksjonaliteten er spesielt viktig når du arbeider med Segm-detektorer og Sam-modeller.
Force Inpaint fungerer som et spesialisert verktøy for å forbedre spesifikke områder av et bilde med ekstra detaljer. Ofte fokuserer vi på ansiktene i bilder. Det er tider når det automatiske systemet kanskje ikke legger til tilstrekkelig detaljer til disse ansiktene, og feilaktig antar at de allerede er tilstrekkelig detaljerte. Dette er det perfekte scenariet for å bruke Force Inpaint.
I essens, Force Inpaint er ideell for å øke detaljer i visse områder av bildet ditt, spesielt når de automatiske innstillingene ikke strekker til.
Spesielt nyttig i scenarier med flere ansiktserstatninger, drop size-innstillingen instruerer modellen til å ignorere masker mindre enn en spesifisert størrelse, som 10 piksler. Denne funksjonen er uvurderlig i overfylte scener hvor fokuset er på større ansikter.
BBox Threshold: BBox threshold er avgjørende for å finjustere Face Detailer-modellen. Å velge et lavere tall betyr en mer tilgivende deteksjonsprosess. Modellen evaluerer bildet og tilordner tillitsprosenter til potensielle ansikter. Å endre terskelen endrer tillitsnivået som kreves for at modellen skal anerkjenne og erstatte et ansikt.
Tenk deg et bilde med masker i bakgrunnen og en person i forgrunnen. Modellen kan forveksle maskene med ansikter. I slike tilfeller kan du øke terskelen for å sikre at den gjenkjenner og fokuserer på det tydelig definerte ansiktet, i stedet for maskene. Omvendt, for å erstatte flere ansikter i en mengde, hvor ansiktene er mindre distinkte, kan det å senke BBox threshold hjelpe med å identifisere disse mindre åpenbare ansiktene.
BBox Dilation: BBox dilation-innstillingen muliggjør utvidelse utover det opprinnelige beskjæringsområdet, vanligvis begrenset til ansiktet. Når du øker dilasjonen, inkluderes flere områder rundt ansiktet i erstatningsprosessen. Disse endringene er imidlertid ofte nyanserte og kan kreve justering av crop factor for mer merkbare resultater.
BBX Crop Factor: Allerede nevnt i 4.1
Segm/Sam forfiner den konvensjonelle bounding box til en mer presis maske, noe som forbedrer nøyaktigheten av ansiktserstatning. Denne presisjonen er spesielt nyttig i scenarier hvor bounding box overlapper med hår, og du foretrekker å ikke endre håret. Ved å bruke Sam-modellen kan du konsentrere erstatningen utelukkende på ansiktet.
Sam Detection Hint: Sam detection hint er en kritisk innstilling. Den veileder modellen om hvor den skal fokusere når den ident identifiserer ansikter. Du har flere alternativer, inkludert Center, Horizontal (ett eller to ansikter), Vertical (to ansikter), og oppsett for fire ansikter i enten rektangulære eller diamantformasjoner.
Sam Dilation: Lignende med bounding box dilation, justerer Sam dilation området utenfor masken eller fokuspunktene som modellen skal erstatte. Å øke denne dilasjonen utvider maskområdet tilbake mot en boksform.
Sam Threshold: Satt til en høy 93%, fungerer Sam threshold som sin bounding box-motpart, men krever et høyere tillitsnivå på grunn av modellens presisjon.
Sam Box Expansion: Denne innstillingen finjusterer den opprinnelige bounding box, og definerer ansiktsområdet ytterligere. Å øke box expansion er gunstig når den opprinnelige bounding box er for restriktiv, slik at modellen kan fange mer av ansiktet.
Sam Mask Hint Threshold: Arbeider i tandem med Sam detection hint, bestemmer denne innstillingen modellens aggressivitet i å respondere på hintet. Standardinnstillingen er 0.7.
Med denne informasjonen bør du ha en mye dypere forståelse av hvordan Face Detailer fungerer.
Å integrere to FaceDetailers for en dual-pass oppsett er mulig; bare overfør Face Detailer til FaceDetailerPipe.
I en enkel-pass (1pass) konfigurasjon, er fokuset primært på å gjenopprette en grunnleggende omriss. Dette krever bruk av en moderat oppløsning med minimale alternativer. Imidlertid kan det være fordelaktig å utvide dilasjonen her, da det ikke bare dekker ansiktstrekk men også strekker seg til omkringliggende områder. Denne teknikken er spesielt gunstig når omforming strekker seg utover bare ansiktsdelen. Du kan eksperimentere etter behov.
For å oppnå enda bedre resultater, kan vi bruke ultra sharp noden for oppskalering. Ved å endre størrelsen på bildet og velge riktig oppskalerer, kan du forbedre bildekvaliteten betydelig.
Her går vi! Med Face Detailer ComfyUI Arbeidsflyt, kan du nå fikse ansikter i enhver video og animasjon!
Ivrig etter å prøve ut Face Detailer ComfyUI Arbeidsflyt vi har diskutert? Vurder definitivt å bruke RunComfy, et skybasert miljø utstyrt med en kraftig GPU. Det er fullt forberedt og inkluderer alt relatert til ComfyUI Impact Pack - Face Detailer, fra modeller til tilpassede noder. Ingen manuell oppsett kreves! Det er din lekeplass for å slippe løs den kreative gnisten.
Forfatter: RunComfy Redaktører
Vårt team av redaktører har jobbet med AI i mer enn 15 år, med start i NLP/Vision i RNN/CNN-alderen. Vi har samlet en enorm mengde erfaringer innen AI Chatbot/Art/Animation, som BERT/GAN/Transformer, etc. Snakk med oss hvis du trenger hjelp med AI kunst, animasjon og video.
© Opphavsrett 2024 RunComfy. Alle Rettigheter Forbeholdt.