Updated: 5/28/2024
Hej der! 🌟 I dag skal vi udforske kunsten at erstatte og reparere ansigter i billeder og videoer med noget super sejt: Face Detailer ComfyUI. Tag dine digitale pensler og lad os blive kreative!
Vi vil dække:
Jeg tror, du måske er bekendt med eller har hørt om After Detailer (ADetailer) udvidelsen for Automatic111, der bruges til at reparere ansigter. En lignende funktion til denne udvidelse, kendt som Face Detailer, findes i ComfyUI og er en del af Impact Pack Node. Derfor, hvis du ønsker at bruge ADetailer i ComfyUI, bør du vælge Face Detailer fra Impact Pack i ComfyUI i stedet.
ComfyUI Impact Pack fungerer som din digitale værktøjskasse til billedforbedring, ligesom en schweizerkniv for dine billeder. Den er udstyret med forskellige moduler som Detector, Detailer, Upscaler, Pipe og mere. Højdepunktet er Face Detailer, som ubesværet gendanner ansigter i billeder, videoer og animationer.
Se videoen ovenfor, lavet ved hjælp af Face Detailer ComfyUI Arbejdsgang. Nu kan du opleve Face Detailer Arbejdsgang uden nogen installationer. Alt er sat op for dig i en skybaseret ComfyUI, forudindlæst med Impact Pack - Face Detailer node og hver model, der kræves for en problemfri oplevelse. Du kan køre denne Face Detailer Arbejdsgang nu eller fortsætte med at læse denne tutorial om, hvordan du bruger den, og derefter prøve det senere.
Okay lad os komme i gang med Face Detailer ComfyUI. Face Detailer noden kan se kompleks ud ved første øjekast, men frygt ikke, og vi vil bryde det ned stykke for stykke. Ved at forstå hver input, output og parameter vil du snart mestre dette kraftfulde værktøj som en professionel.
For at finde Face Detailer i ComfyUI, skal du blot gå til Tilføj Node → Impact Pack → Simple → Face Detailer / Face Detailer (pipe).
Lad os starte med "Face Detailer" og derefter dykke ned i "Face Detailer Pipe".
I denne tutorial dykker vi ned i, hvordan man reparerer ansigter eller erstatter ansigter i videoer. Videoen er genereret ved hjælp af AnimateDiff. Hvis du er ivrig efter at lære mere om AnimateDiff, har vi en dedikeret AnimateDiff tutorial!
Hvis du er mere komfortabel med at arbejde med billeder, skal du blot skifte noderne relateret til videoen ud med dem, der er relateret til billedet. Face Detailer er alsidig nok til at håndtere både video og billede.
Lad os starte med billedinput (øverste venstre knap i Face Detailer), hvilket betyder at fodre et billede eller video ind i Face Detailer ComfyUI. Dette er, hvor transformationen begynder! Her fodrer vi Face Detailer med videoen genereret af AnimateDiff.
Du er sandsynligvis allerede bekendt med disse indstillinger. Vi springer grundlæggende over og bemærker blot, at prompts - både positive og negative - spiller en afgørende rolle her. Vi vil bruge de samme prompts, der genererede videoen. Du har dog fleksibiliteten til at tilpasse disse prompts, især for det ansigt, du har til hensigt at erstatte.
Her er en interessant detalje: ved at bruge de samme prompts som billedgenereringen fører til ansigtsrestaurering. På den anden side betyder forskellige prompts, at du vælger en fuldstændig ansigtserstatning. Det er helt op til dig!
Tip: Brug "To Basic Pipe" og "From Basic Pipe"
For at forenkle processen med at forbinde adskillige noder, brug "Pipe" systemet. Start med "To Basic Pipe," en input kombiner, for at samle forskellige inputs. Brug derefter "From Basic Pipe" til at pakke disse inputs ud. Forbind blot disse to pipes, og du vil have alle nødvendige inputs klar til hurtig og effektiv integration.
BBox modeller specialiserer sig i at identificere elementer ved hjælp af rektangler, hvorimod Segm/person modeller bruger masker til detektion.
I begge tilfælde, uanset om det er BBox Detector eller Segm Detector, anvender vi "Ultral Litic Detector Provider" noden. Det er dog vigtigt at bemærke, at for BBox Detector bruger vi specifikt bbox/face_yolov8m og bbox/hand_yolov8s modeller. I modsætning hertil anvendes segm/person_yolov8m-seg modellen udelukkende til Segm Detector.
Det følgende gælder udelukkende for BBox Detector. Derfor vil du bemærke, at previewet af det beskårne og forbedrede billede vises som en boks.
Efterfølgende, når vi kombinerer kapaciteterne af både BBox Detector og Segm Detector og integrerer Sam modellen, tager previewet af det beskårne og forbedrede billede en maske-lignende form.
Guide Size: Guide size for BBX fokuserer billedets ansigtsdetaljer på bounding box ansigtsområdet (som vist i previewet af det beskårne forbedrede billede). Standardindstillingen er 256, hvilket betyder, at hvis ansigtsområdet i rektanglet er mindre end 256 pixels, opskalerer systemet det automatisk til mindst 256 pixels.
Max Size: Max size etablerer den øvre grænse for, hvor stort det beskårne område kan være (som vist i previewet af det beskårne forfinede billede). Denne grænse er for at forhindre, at området bliver for stort, hvilket kan føre til andre problemer. Standard max size er 768 pixels.
Opretholdelse af et Optimalt Område: Ved at indstille disse parametre holder vi billedstørrelsen inden for et 256 til 768-pixel område, ideelt til SD 1.5 Checkpoint. Men hvis du skifter til SDXL Checkpoint modellen, kendt for bedre ydeevne med større billeder, kan det være fordelagtigt at justere guide size til 512 og max size til 1024. Denne justering er værd at eksperimentere med.
Guide Size for: Under guide size er der en mulighed mærket "guide size for bbox". Dette giver dig mulighed for at flytte fokus til crop regionen, som er et større område end bounding box ansigtsområdet.
BBX Crop Factor: BBX crop factor er i øjeblikket sat til 3. Reduktion af crop factor til 1,0 betyder et mindre crop område, svarende til ansigtsområdet. Når den er sat til 3, indikerer det, at crop området er 3 gange større end ansigtsområdet.
Essensen af at justere crop factor ligger i at finde en balance mellem at give tilstrækkeligt fokus for ansigtsdetaljeren og tillade nok plads til kontekstuel blanding. Ved at sætte den til 3 betyder det, at crop området inkluderer lidt mere af den omkringliggende kontekst, hvilket generelt er fordelagtigt. Du bør dog også tage størrelsen af ansigtet i billedet i betragtning, når du beslutter den passende indstilling.
Feather indstillingen bestemmer, hvor meget billedets kanter eller inpaintede områder blander sig problemfrit med resten af billedet. Jeg sætter den typisk til fem, hvilket fungerer godt i de fleste tilfælde. Men hvis du bemærker, at inpaintingen i dine billeder har særligt skarpe kanter, kan du overveje at øge denne værdi. Da vi ikke observerer nogen skarpe kanter i dette eksempel, er der ingen umiddelbar grund til at justere den.
Aktivering af Noise Mask dirigerer effektivt modellen til at fokusere sin støj og denoise operationer udelukkende på det maskerede område. Dette forvandler rektanglet til en maske, som præcist angiver de områder, hvor støj anvendes og efterfølgende forfines. Denne funktionalitet er især vigtig, når man arbejder med Segm detektorer og Sam modeller.
Force Inpaint fungerer som et specialiseret værktøj til at forbedre specifikke områder af et billede med yderligere detaljer. Ofte fokuserer vi på ansigterne i billeder. Der er tidspunkter, hvor det automatiske system muligvis ikke tilføjer tilstrækkelige detaljer til disse ansigter, fejlagtigt antagende, at de allerede er tilstrækkeligt detaljerede. Dette er det perfekte scenarie til at bruge Force Inpaint.
I essens er Force Inpaint ideel til at forøge detaljer i visse områder af dit billede, især når de automatiske indstillinger ikke er tilstrækkelige.
Særligt nyttig i scenarier med flere ansigtserstatninger, instruerer drop size indstillingen modellen til at ignorere masker mindre end en specificeret størrelse, som 10 pixels. Denne funktion er uvurderlig i overfyldte scener, hvor fokus er på større ansigter.
BBox Threshold: BBox threshold er afgørende for finjustering af ansigtsdetektionsmodellen. Valg af et lavere tal betyder en mere tilgivende detektionsproces. Modellen evaluerer billedet og tildeler tillidsprocenter til potentielle ansigter. Ændring af tærsklen justerer det tillidsniveau, der kræves for, at modellen anerkender og erstatter et ansigt.
Overvej et billede med masker i baggrunden og en person i forgrunden. Modellen kan forveksle maskerne med ansigter. I sådanne tilfælde kan du øge tærsklen for at sikre, at den genkender og fokuserer på det klart definerede ansigt, snarere end maskerne. Omvendt, for at erstatte flere ansigter i en menneskemængde, hvor ansigterne er mindre tydelige, kan sænkning af BBox threshold hjælpe med at identificere disse mindre åbenlyse ansigter.
BBox Dilation: BBox dilation indstillingen muliggør udvidelse ud over det oprindelige beskæringsområde, typisk begrænset til ansigtet. Når du øger dilation, inkluderes flere områder omkring ansigtet i erstatningsprocessen. Disse ændringer er dog ofte nuancerede og kan kræve justering af crop factor for mere mærkbare resultater.
BBX Crop Factor: Allerede nævnt i 4.1
Segm/Sam forfiner det konventionelle rektangel til en mere præcis maske og forbedrer nøjagtigheden af ansigtserstatning. Denne præcision er især nyttig i scenarier, hvor rektanglet overlapper med hår, og du foretrækker ikke at ændre håret. Ved at bruge Sam modellen kan du koncentrere erstatningen udelukkende på ansigtet.
Sam Detection Hint: Sam detection hint er en kritisk indstilling. Den guider modellen om, hvor den skal fokusere, når den identificerer ansigter. Du har flere muligheder, herunder Center, Horizontal (et eller to ansigter), Vertical (to ansigter), og arrangementer for fire ansigter i enten rektangulære eller diamantformationer.
Sam Dilation: Ligesom rektangel dilation justerer Sam dilation indstillingen området uden for masken eller fokuspunktet, som modellen vil erstatte. Øgning af denne dilation udvider maskområdet tilbage mod en boksform.
Sam Threshold: Sat til en høj 93%, fungerer Sam threshold ligesom dens rektangel modstykke, men kræver et højere tillidsniveau på grund af modellens præcision.
Sam Box Expansion: Denne indstilling finjusterer det oprindelige rektangel og definerer yderligere ansigtsområdet. Øgning af boksudvidelsen er gavnlig, når det oprindelige rektangel er for restriktivt og tillader modellen at fange mere af ansigtet.
Sam Mask Hint Threshold: Arbejder i tandem med Sam detection hint, bestemmer denne indstilling modellens aggressivitet i at reagere på hintet. Standardindstillingen er 0,7.
Med disse oplysninger bør du have en meget dybere forståelse af, hvordan ansigtsdetaljeren fungerer.
Integrering af to FaceDetailers til en dual-pass opsætning er muligt; overfør blot Face Detailer til FaceDetailerPipe.
I en enkelt-pass (1pass) konfiguration fokuseres primært på at gendanne en grundlæggende kontur. Dette kræver brug af en moderat opløsning med minimale indstillinger. Men udvidelse af dilation her kan være fordelagtigt, da det ikke kun dækker ansigtstræk, men også strækker sig til omkringliggende områder. Denne teknik er særligt nyttig, når omformning strækker sig ud over kun ansigtsdelen. Du kan eksperimentere efter behov.
For at opnå endnu bedre resultater kan vi bruge ultra sharp noden til opskalering. Ved at ændre billedstørrelsen og vælge den passende opskaler, kan du forbedre billedkvaliteten betydeligt.
Så er vi klar! Med Face Detailer ComfyUI Arbejdsgang kan du nu reparere ansigter i enhver video og animation!
Ivrig efter at prøve Face Detailer ComfyUI Arbejdsgang, vi har diskuteret? Overvej bestemt at bruge RunComfy, et skymiljø udstyret med en kraftfuld GPU. Det er fuldt forberedt og inkluderer alt relateret til ComfyUI Impact Pack - Face Detailer, fra modeller til brugerdefinerede noder. Ingen manuel opsætning er nødvendig! Det er din legeplads til at frigive den kreative gnist.
Forfatter: RunComfy Redaktører
Vores team af redaktører har arbejdet med AI i mere end 15 år, startende med NLP/Vision i RNN/CNN æraen. Vi har samlet en enorm mængde erfaringer inden for AI Chatbot/Kunst/Animation, såsom BERT/GAN/Transformer, etc. Tal med os, hvis du har brug for hjælp til AI kunst, animation og video.
© Ophavsret 2024 RunComfy. Alle rettigheder forbeholdes.