Updated: 5/27/2024
Hej där! 🌟 Idag ska vi utforska konsten att ersätta och fixa ansikten i bilder och videor med något supercoolt: Face Detailer ComfyUI. Ta fram dina digitala penslar och låt oss bli konstnärliga!
Vi kommer att täcka:
Jag tror att du kanske är bekant med eller har hört talas om After Detailer (ADetailer) tillägget för Automatic111, som används för att fixa ansikten. En liknande funktion för detta tillägg, känd som Face Detailer, finns i ComfyUI och är en del av Impact Pack Node. Därför, om du vill använda ADetailer i ComfyUI, bör du välja Face Detailer från Impact Pack i ComfyUI istället.
ComfyUI Impact Pack fungerar som din digitala verktygslåda för bildförbättring, likt en schweizisk armékniv för dina bilder. Den är utrustad med olika moduler såsom Detector, Detailer, Upscaler, Pipe och mer. Höjdpunkten är Face Detailer, som enkelt återställer ansikten i bilder, videor och animationer.
Kolla in videon ovan, skapad med Face Detailer ComfyUI Arbetsflöde. Nu kan du uppleva Face Detailer Workflow utan några installationer. Allt är förberett för dig i en molnbaserad ComfyUI, förinstallerad med Impact Pack - Face Detailer noden och alla modeller som krävs för en sömlös upplevelse. Du kan köra detta Face Detailer Arbetsflöde nu eller fortsätta läsa denna guide om hur du använder det och sedan ge det ett försök senare.
Okej, låt oss smutsa ner händerna med Face Detailer ComfyUI. Face Detailer noden kan se komplex ut vid första anblick, men frukta inte, vi kommer att bryta ner den bit för bit. Genom att förstå varje input, output och parameter kommer du snart att hantera detta kraftfulla verktyg som ett proffs.
För att hitta Face Detailer i ComfyUI, gå bara till Add Node → Impact Pack → Simple → Face Detailer / Face Detailer (pipe).
Låt oss börja med "Face Detailer" och sedan fördjupa oss i "Face Detailer Pipe".
I denna guide kommer vi att dyka in i hur man fixar ansikten eller ersätter ansikten i videor. Videon är genererad med AnimateDiff. Om du är ivrig att lära dig mer om AnimateDiff, har vi en dedikerad AnimateDiff guide!
Om du är mer bekväm med att arbeta med bilder, byt bara ut noderna relaterade till videon mot de som är relaterade till bilden. Face Detailer är mångsidig nog att hantera både video och bild.
Låt oss börja med bildinmatningen (övre vänstra knappen i Face Detailer), vilket innebär att mata in en bild eller video i Face Detailer ComfyUI. Detta är där transformationen börjar! Här matar vi in Face Detailer den video som genererats av AnimateDiff.
Du är förmodligen redan bekant med dessa inställningar. Vi hoppar över grunderna och noterar bara att promptarna - både positiva och negativa - spelar en avgörande roll här. Vi kommer att använda samma promptar som genererade videon. Men du har flexibiliteten att anpassa dessa promptar, särskilt för det ansikte du tänker ersätta.
Här är en intressant bit: att använda samma promptar som bildgenereringen leder till ansiktsåterställning. Å andra sidan, olika promptar innebär att du väljer en komplett ansiktsersättning. Det är helt upp till dig!
Tips: Använd "To Basic Pipe" och "From Basic Pipe"
För att förenkla processen att ansluta många noder, använd "Pipe"-systemet. Börja med "To Basic Pipe", en input-kombinerare, för att samla olika inputs. Använd sedan "From Basic Pipe" för att packa upp dessa inputs. Anslut helt enkelt dessa två pipes, och du har alla nödvändiga inputs redo för snabb och effektiv integration.
BBox-modellerna specialiserar sig på att identifiera element med hjälp av bounding boxes, medan Segm/person-modellerna använder masker för detektering.
I båda fallen, vare sig det är BBox Detector eller Segm Detector, använder vi "Ultral Litic Detector Provider" noden. Det är dock viktigt att notera att för BBox Detector använder vi specifikt bbox/face_yolov8m och bbox/hand_yolov8s modellerna. Däremot används segm/person_yolov8m-seg modellen exklusivt för Segm Detector.
Det som följer gäller enbart BBox Detector. Därför kommer du att se att förhandsvisningen av den beskurna och förbättrade bilden visas som en box.
Subsequently, när vi kombinerar kapaciteterna hos både BBox Detector och Segm Detector, och integrerar Sam-modellen, tar förhandsvisningen av den beskurna och förbättrade bilden en maskliknande form.
Guide Size: Guide size för BBX fokuserar bildens face detailer på bounding box face area (som visas i förhandsvisningen av den beskurna förbättrade bilden). Standardvärdet är satt till 256, vilket innebär att om bounding box face area är mindre än 256 pixlar, skalar systemet automatiskt upp det till minst 256 pixlar.
Max Size: Max size fastställer den övre gränsen för hur stor den beskurna ytan kan vara (som visas i förhandsvisningen av den beskurna förfinade bilden). Denna gräns är för att förhindra att området blir för stort, vilket kan leda till andra problem. Standard max size är 768 pixlar.
Att hålla ett optimalt intervall: Genom att ställa in dessa parametrar håller vi bildstorleken inom ett intervall på 256 till 768 pixlar, vilket är idealiskt för SD 1.5 Checkpoint. Men om du byter till SDXL Checkpoint-modellen, känd för bättre prestanda med större bilder, kan det vara fördelaktigt att justera guide size till 512 och max size till 1024. Denna justering är värd att experimentera med.
Guide Size for: Under guide size finns det ett alternativ märkt "guide size for bbox". Detta låter dig flytta fokus till crop region, vilket är ett större område än bounding box face area.
BBX Crop Factor: BBX crop factor är för närvarande inställt på 3. Att minska crop factor till 1.0 innebär ett mindre beskärningsområde, lika med ansiktsområdet. När det är inställt på 3, innebär det att beskärningsområdet är 3 gånger större än ansiktsområdet.
Essensen av att justera crop factor ligger i att hitta en balans mellan att ge tillräckligt fokus för face detailer och att tillåta tillräckligt med utrymme för kontextuell blandning. Att ställa in det på 3 innebär att beskärningsområdet inkluderar något mer av den omgivande kontexten, vilket generellt sett är fördelaktigt. Men du bör också ta hänsyn till storleken på ansiktet i bilden när du bestämmer den lämpliga inställningen.
Feather-inställningen bestämmer i vilken utsträckning bildkanterna eller de inmålade områdena smälter sömlöst med resten av bilden. Jag brukar ställa in den på fem, vilket fungerar bra i de flesta fall. Men om du märker att inpaintingen i dina bilder har särskilt hårda kanter, kan du överväga att öka detta värde. Eftersom vi inte observerar några hårda kanter i detta exempel, finns det inget omedelbart behov av att justera det.
Aktivering av Noise Mask riktar effektivt modellens brus- och avbrusningsoperationer exklusivt på det maskerade området. Detta förvandlar bounding box till en mask, som exakt anger de områden där brus appliceras och därefter förfinas. Denna funktion är särskilt viktig när man arbetar med Segm detektorer och Sam-modeller.
Force Inpaint fungerar som ett specialiserat verktyg för att förbättra specifika områden av en bild med ytterligare detalj. Ofta fokuserar vi på ansikten i bilder. Det finns gånger när det automatiska systemet kanske inte lägger till tillräckligt med detalj till dessa ansikten, felaktigt antar att de redan är tillräckligt detaljerade. Detta är det perfekta scenariot att använda Force Inpaint.
I huvudsak är Force Inpaint idealiskt för att öka detaljer i vissa områden av din bild, särskilt när de automatiska inställningarna inte räcker till.
Särskilt användbart i scenarier med flera ansiktsersättningar, instruerar drop size-inställningen modellen att ignorera masker mindre än en specifik storlek, som 10 pixlar. Denna funktion är ovärderlig i trånga scener där fokus ligger på större ansikten.
BBox Threshold: BBox threshold är avgörande för att finjustera ansiktsdetekteringsmodellen. Att välja ett lägre nummer innebär en mer förlåtande detekteringsprocess. Modellen utvärderar bilden och tilldelar förtroendeprocent till potentiella ansikten. Att ändra threshold ändrar den förtroendenivå som krävs för att modellen ska erkänna och ersätta ett ansikte.
Tänk på en bild med masker i bakgrunden och en person i förgrunden. Modellen kan förväxla maskerna med ansikten. I sådana fall kan du höja threshold för att säkerställa att den känner igen och fokuserar på det tydligt definierade ansiktet, snarare än maskerna. Å andra sidan, för att ersätta flera ansikten i en folkmassa där ansikten är mindre distinkta, kan sänkning av bbox threshold hjälpa till att identifiera dessa mindre tydliga ansikten.
BBox Dilation: BBox dilation-inställningen möjliggör expansion bortom det initiala beskärningsområdet, som vanligtvis är begränsat till ansiktet. När du ökar dilation inkluderas fler områden runt ansiktet i ersättningsprocessen. Dessa förändringar är dock ofta nyanserade och kan kräva justering av crop factor för mer märkbara resultat.
BBX Crop Factor: Redan nämnt i 4.1
Segm/Sam förfinar den konventionella bounding box till en mer exakt mask, vilket förbättrar noggrannheten för ansiktsersättning. Denna precision är särskilt användbar i scenarier där bounding box överlappar med hår, och du föredrar att inte ändra håret. Genom att använda Sam-modellen kan du koncentrera ersättningen enbart på ansiktet.
Sam Detection Hint: Sam detection hint är en kritisk inställning. Den vägleder modellen om var den ska fokusera när den identifierar ansikten. Du har flera alternativ, inklusive Center, Horizontal (ett eller två ansikten), Vertical (två ansikten) och arrangemang för fyra ansikten i antingen rektangulära eller diamantformationer.
Sam Dilation: Liknande bounding box dilation, justerar Sam dilation inställningen området utanför masken eller fokus område som modellen kommer att ersätta. Att öka denna dilation expanderar maskområdet tillbaka mot en boxform.
Sam Threshold: Inställt på höga 93%, fungerar Sam threshold likt sin bounding box motsvarighet men kräver en högre förtroendenivå på grund av modellens precision.
Sam Box Expansion: Denna inställning finjusterar den initiala bounding box, och definierar ansiktsområdet ytterligare. Att öka box expansion är fördelaktigt när den initiala bounding box är för restriktiv, vilket tillåter modellen att fånga mer av ansiktet.
Sam Mask Hint Threshold: Tillsammans med Sam detection hint, bestämmer denna inställning modellens aggressivitet i att svara på hint. Standardinställningen är 0.7.
Med denna information bör du ha en mycket djupare förståelse för hur face detailer fungerar.
Att integrera två FaceDetailers för en dubbelpasskonfiguration är möjligt; överför bara Face Detailer till FaceDetailerPipe.
I en enkelpass (1pass) konfiguration, är fokus främst på att återställa en grundläggande kontur. Detta kräver användning av en måttlig upplösning med minimala alternativ. Men att utöka dilation här kan vara fördelaktigt, eftersom det täcker både ansiktsdrag och omgivande områden. Denna teknik är särskilt fördelaktig när omformningen sträcker sig bortom bara ansiktsdelen. Du kan experimentera efter behov.
För att uppnå ännu bättre resultat, kan vi använda ultra sharp noden för uppskalning. Genom att ändra storleken på bilden och välja lämplig uppskalare, kan du förbättra bildkvaliteten avsevärt.
Här går vi! Med Face Detailer ComfyUI Arbetsflöde kan du nu fixa ansikten i alla videor och animationer!
Ivrig att prova Face Detailer ComfyUI Arbetsflöde vi har diskuterat? Överväg definitivt att använda RunComfy, en molnmiljö utrustad med en kraftfull GPU. Det är helt förberett och inkluderar allt relaterat till ComfyUI Impact Pack - Face Detailer, från modeller till anpassade noder. Ingen manuell installation krävs! Det är din lekplats för att frigöra den kreativa gnistan.
Författare: RunComfy Redaktörer
Vårt team av redaktörer har arbetat med AI i mer än 15 år, med början inom NLP/Vision under RNN/CNN-eran. Vi har samlat på oss enorma mängder erfarenheter inom AI Chatbot/Konst/Animation, såsom BERT/GAN/Transformer, etc. Prata med oss om du behöver hjälp med AI-konst, animation och video.
© Copyright 2024 RunComfy. Alla Rättigheter Förbehållna.