Updated: 5/27/2024
Cześć! 🌟 Dziś będziemy eksplorować sztukę zamiany i poprawiania twarzy na obrazach i wideo za pomocą czegoś super fajnego: Face Detailer ComfyUI. Chwyć swoje cyfrowe pędzle i zaczynajmy!
Omówimy:
Wierzę, że możesz być zaznajomiony z rozszerzeniem After Detailer (ADetailer) dla Automatic111, używanym do poprawiania twarzy. Podobna funkcja do tego rozszerzenia, znana jako Face Detailer, istnieje w ComfyUI i jest częścią Impact Pack Node. Dlatego jeśli chcesz używać ADetailer w ComfyUI, powinieneś wybrać Face Detailer z Impact Pack w ComfyUI zamiast.
ComfyUI Impact Pack służy jako twoja cyfrowa skrzynka narzędziowa do ulepszania obrazów, podobna do szwajcarskiego scyzoryka dla twoich obrazów. Jest wyposażony w różne moduły, takie jak Detector, Detailer, Upscaler, Pipe i inne. Najważniejszym elementem jest Face Detailer, który bez wysiłku przywraca twarze na obrazach, wideo i animacjach.
Sprawdź powyższe wideo, stworzone za pomocą Face Detailer ComfyUI Workflow. Teraz możesz doświadczyć Face Detailer Workflow bez żadnych instalacji. Wszystko jest dla ciebie przygotowane w chmurze ComfyUI, wstępnie załadowane z Impact Pack - Face Detailer node i wszystkimi modelami potrzebnymi do bezproblemowego doświadczenia. Możesz teraz uruchomić ten Face Detailer Workflow lub kontynuować czytanie tego tutorialu, aby dowiedzieć się, jak go używać, a następnie spróbować później.
Dobrze, zabierzmy się do pracy z Face Detailer ComfyUI. Węzeł Face Detailer może wyglądać skomplikowanie na pierwszy rzut oka, ale nie obawiaj się, rozłożymy to na części. Zrozumienie każdego wejścia, wyjścia i parametru pozwoli ci w krótkim czasie korzystać z tego potężnego narzędzia jak profesjonalista.
Aby zlokalizować Face Detailer w ComfyUI, po prostu przejdź do Add Node → Impact Pack → Simple → Face Detailer / Face Detailer (pipe).
Zacznijmy od "Face Detailer", a potem zagłębimy się w "Face Detailer Pipe".
W tym tutorialu zagłębimy się w to, jak naprawić twarze lub zastąpić twarze na wideo. Wideo jest generowane za pomocą AnimateDiff. Jeśli jesteś zainteresowany nauką AnimateDiff, mamy dedykowany tutorial AnimateDiff!
Jeśli bardziej komfortowo pracujesz z obrazami, po prostu zamień węzły związane z wideo na te związane z obrazem. Face Detailer jest na tyle wszechstronny, że poradzi sobie zarówno z wideo, jak i obrazami.
Zacznijmy od wprowadzenia obrazu (górny lewy przycisk w Face Detailer), co oznacza podanie obrazu lub wideo do Face Detailer ComfyUI. To tutaj zaczyna się transformacja! Tutaj podajemy Face Detailer wideo wygenerowane przez AnimateDiff.
Prawdopodobnie jesteś już zaznajomiony z tymi ustawieniami. Pominiemy podstawy i zauważymy tylko, że prompty - zarówno pozytywne, jak i negatywne - odgrywają tutaj kluczową rolę. Użyjemy tych samych promptów, które wygenerowały wideo. Jednak masz elastyczność dostosowania tych promptów, zwłaszcza dla twarzy, którą zamierzasz zastąpić.
Oto ciekawostka: używanie tych samych promptów co generowanie obrazu prowadzi do przywracania twarzy. Z kolei różne prompty oznaczają, że decydujesz się na całkowitą zamianę twarzy. To wszystko zależy od ciebie!
Wskazówka: Użyj "To Basic Pipe" i "From Basic Pipe"
Aby uprościć proces łączenia licznych węzłów, użyj systemu "Pipe". Zacznij od "To Basic Pipe", łącznika wejściowego, aby zebrać różne wejścia. Następnie użyj "From Basic Pipe", aby rozpakować te wejścia. Po prostu połącz te dwa rury, a będziesz miał wszystkie niezbędne wejścia gotowe do szybkiej i efektywnej integracji.
Modele BBox specjalizują się w identyfikacji elementów za pomocą ramek, podczas gdy modele Segm/person wykorzystują maski do wykrywania.
W obu przypadkach, niezależnie od tego, czy jest to BBox Detector, czy Segm Detector, używamy węzła "Ultral Litic Detector Provider". Jednak ważne jest, aby zauważyć, że dla BBox Detector używamy konkretnie modeli bbox/face_yolov8m i bbox/hand_yolov8s. W przeciwieństwie do tego, model segm/person_yolov8m-seg jest używany wyłącznie dla Segm Detector.
Co następuje, dotyczy wyłącznie BBox Detector. W związku z tym zauważysz, że podgląd przyciętego i ulepszonego obrazu pojawia się jako ramka.
Następnie, gdy łączymy możliwości zarówno BBox Detector, jak i Segm Detector, i integrujemy model Sam, podgląd przyciętego i ulepszonego obrazu przybiera postać maski.
Rozmiar Przewodnika: Rozmiar przewodnika dla BBX skupia szczegóły twarzy obrazu na obszarze ramki twarzy (jak pokazano w podglądzie przyciętego ulepszonego obrazu). Domyślnie ustawiony na 256, oznacza to, że jeśli obszar ramki twarzy jest mniejszy niż 256 pikseli, system automatycznie powiększa go do minimum 256 pikseli.
Maksymalny Rozmiar: Maksymalny rozmiar ustala górną granicę, jak duży może być obszar przycięcia (jak pokazano w podglądzie przyciętego ulepszonego obrazu). Ten limit ma zapobiec zbyt dużemu obszarowi, co mogłoby prowadzić do innych problemów. Domyślny maksymalny rozmiar to 768 pikseli.
Utrzymywanie Optymalnego Zakresu: Ustawiając te parametry, utrzymujemy rozmiar obrazu w zakresie od 256 do 768 pikseli, idealnym dla SD 1.5 Checkpoint. Jednak jeśli przełączysz się na model SDXL Checkpoint, znany z lepszej wydajności przy większych obrazach, dostosowanie rozmiaru przewodnika do 512 i maksymalnego rozmiaru do 1024 może być korzystne. Warto to wypróbować.
Rozmiar Przewodnika dla: Pod rozmiarem przewodnika znajduje się opcja oznaczona "rozmiar przewodnika dla bbox". Pozwala to przenieść fokus na obszar przycięcia, który jest większy niż obszar ramki twarzy.
Współczynnik Przycięcia BBX: Współczynnik przycięcia BBX jest obecnie ustawiony na 3. Zmniejszenie współczynnika przycięcia do 1.0 oznacza mniejszy obszar przycięcia, równy obszarowi twarzy. Ustawienie na 3 oznacza, że obszar przycięcia jest 3 razy większy niż obszar twarzy.
Istota dostosowywania współczynnika przycięcia polega na znalezieniu równowagi między zapewnieniem odpowiedniego fokusu dla face detailer a pozostawieniem wystarczającej przestrzeni dla kontekstowego mieszania. Ustawienie na 3 oznacza, że obszar przycięcia obejmuje nieco więcej kontekstu otoczenia, co jest zazwyczaj korzystne. Jednak należy również wziąć pod uwagę wielkość twarzy na obrazie przy podejmowaniu decyzji o odpowiednim ustawieniu.
Ustawienie Feather określa stopień, w jakim krawędzie obrazu lub obszary inpaintingu mieszają się płynnie z resztą obrazu. Zwykle ustawiam je na pięć, co działa dobrze w większości przypadków. Jednak jeśli zauważysz, że inpainting na twoich obrazach ma szczególnie ostre krawędzie, możesz rozważyć zwiększenie tej wartości. Ponieważ nie obserwujemy żadnych ostrych krawędzi w tym przykładzie, nie ma potrzeby ich dostosowywać.
Aktywacja Maskowania Szumu skutecznie kieruje model, aby skupił swoje operacje szumu i denoise wyłącznie na obszarze maskowanym. To przekształca ramkę w maskę, która precyzyjnie wskazuje obszary, gdzie szum jest stosowany, a następnie rafinowany. Ta funkcjonalność jest szczególnie ważna przy pracy z detektorami Segm i modelami Sam.
Wymuszanie Inpaintingu działa jako specjalistyczne narzędzie do dodawania dodatkowych szczegółów do określonych obszarów obrazu. Często skupiamy się na twarzach na obrazach. Zdarzają się sytuacje, gdy automatyczny system może nie dodać wystarczająco szczegółów do tych twarzy, błędnie zakładając, że są one już odpowiednio szczegółowe. To jest idealny scenariusz do wykorzystania Wymuszania Inpaintingu.
W istocie, Wymuszanie Inpaintingu jest idealne do zwiększenia szczegółów w określonych obszarach obrazu, szczególnie gdy automatyczne ustawienia są niewystarczające.
Szczególnie przydatne w scenariuszach zamiany wielu twarzy, ustawienie rozmiaru drop instruuje model, aby ignorował maski mniejsze niż określony rozmiar, na przykład 10 pikseli. Ta funkcja jest nieoceniona w zatłoczonych scenach, gdzie fokus jest na większych twarzach.
Próg BBox: Próg bbox jest kluczowy w dostrajaniu modelu wykrywania twarzy. Wybór niższej liczby oznacza bardziej wyrozumiały proces wykrywania. Model ocenia obraz, przypisując procenty pewności potencjalnym twarzom. Zmnia progu modyfikuje poziom pewności wymagany, aby model uznał i zastąpił twarz.
Weźmy pod uwagę obraz z maskami w tle i osobą na pierwszym planie. Model może pomylić maski z twarzami. W takich przypadkach możesz zwiększyć próg, aby upewnić się, że rozpoznaje i koncentruje się na wyraźnie zdefiniowanej twarzy, a nie na maskach. Z drugiej strony, aby zastąpić wiele twarzy w tłumie, gdzie twarze są mniej wyraźne, obniżenie progu bbox może pomóc w identyfikacji tych mniej oczywistych twarzy.
Dylatacja BBox: Ustawienie dylatacji bbox umożliwia rozszerzenie poza początkowy obszar przycięcia, zwykle ograniczony do twarzy. Zwiększenie dylatacji obejmuje więcej obszarów otaczających twarz w procesie zamiany. Jednak te zmiany są często subtelne i mogą wymagać dostosowania współczynnika przycięcia dla bardziej zauważalnych rezultatów.
Współczynnik Przycięcia BBX: Omówiony już w 4.1
Segm/Sam udoskonala konwencjonalną ramkę w bardziej precyzyjną maskę, zwiększając dokładność zamiany twarzy. Ta precyzja jest szczególnie przydatna w sytuacjach, gdy ramka nakłada się na włosy, a nie chcesz zmieniać włosów. Korzystając z modelu Sam, możesz skoncentrować zamianę wyłącznie na twarzy.
Sam Detection Hint: Wskazówka Sam detection jest kluczowym ustawieniem. Kieruje model, na czym się skupić podczas identyfikacji twarzy. Masz kilka opcji, w tym Center, Horizontal (jedna lub dwie twarze), Vertical (dwie twarze) i układy dla czterech twarzy w formacjach prostokątnych lub diamentowych.
Dylatacja Sam: Podobnie jak dylatacja ramki, ustawienie dylatacji Sam dostosowuje obszar poza maską lub punktem skupienia, który model zamieni. Zwiększenie tej dylatacji rozszerza obszar maski z powrotem w kierunku kształtu pudełka.
Próg Sam: Ustawiony na wysokim poziomie 93%, próg Sam działa jak jego odpowiednik dla ramki, ale wymaga wyższego poziomu pewności ze względu na precyzję modelu.
Ekspansja Ramki Sam: To ustawienie dostraja początkową ramkę, dodatkowo definiując obszar twarzy. Zwiększenie ekspansji ramki jest korzystne, gdy początkowa ramka jest zbyt restrykcyjna, pozwalając modelowi uchwycić więcej twarzy.
Próg Wskazówki Maski Sam: Pracując w tandemie z wskazówką Sam detection, to ustawienie określa agresywność modelu w odpowiedzi na wskazówkę. Domyślne ustawienie to 0.7.
Dzięki tym informacjom powinieneś mieć znacznie głębsze zrozumienie, jak działa face detailer.
Integracja dwóch FaceDetailers dla konfiguracji dwukrotnego przejścia jest możliwa; po prostu przenieś Face Detailer do FaceDetailerPipe.
W konfiguracji jednokrotnego przejścia (1pass), fokus jest głównie na przywróceniu podstawowego konturu. Wymaga to użycia umiarkowanej rozdzielczości z minimalnymi opcjami. Jednak rozszerzenie dylatacji tutaj może być korzystne, ponieważ obejmuje nie tylko cechy twarzy, ale także otaczające obszary. Ta technika jest szczególnie korzystna, gdy przekształcenie obejmuje więcej niż tylko część twarzy. Możesz eksperymentować w miarę potrzeby.
Aby osiągnąć jeszcze lepsze rezultaty, możemy użyć ultra sharp node do skalowania. Poprzez zmianę rozmiaru obrazu i wybranie odpowiedniego upscalera, możesz znacząco poprawić jakość obrazu.
Oto jest! Dzięki Face Detailer ComfyUI Workflow, możesz teraz naprawiać twarze w dowolnym wideo i animacji!
Chcesz wypróbować Face Detailer ComfyUI Workflow, o którym rozmawialiśmy? Zdecydowanie rozważ skorzystanie z RunComfy, środowiska chmurowego wyposażonego w potężne GPU. Jest w pełni przygotowane i zawiera wszystko związane z ComfyUI Impact Pack - Face Detailer, od modeli po niestandardowe węzły. Nie jest wymagana żadna ręczna konfiguracja! To twoje miejsce do wyzwolenia kreatywności.
Autor: Redaktorzy RunComfy
Nasz zespół redaktorów pracuje z AI od ponad 15 lat, zaczynając od NLP/Vision w erze RNN/CNN. Zgromadziliśmy ogromne doświadczenie w dziedzinie AI Chatbot/Art/Animation, takie jak BERT/GAN/Transformer itp. Skontaktuj się z nami, jeśli potrzebujesz pomocy w zakresie AI sztuki, animacji i wideo.
© Prawa autorskie 2024 RunComfy. Wszelkie prawa zastrzeżone.