1. Co to jest IC-Light?
IC-Light to narzędzie do edycji obrazów oparte na AI, które integruje się z modelami Stable Diffusion w celu wykonywania lokalnych edycji na generowanych obrazach. Działa poprzez kodowanie obrazu w reprezentację przestrzeni latentnej, stosowanie edycji do określonych regionów, a następnie dekodowanie zmodyfikowanej reprezentacji latentnej z powrotem do obrazu. To podejście pozwala na precyzyjną kontrolę procesu edycji przy zachowaniu ogólnego stylu i spójności oryginalnego obrazu.
Obecnie dostępne są dwa modele: model warunkowany tekstem i model warunkowany tłem. Oba typy przyjmują obrazy pierwszoplanowe jako dane wejściowe.
2. Jak działa IC-Light
Pod maską IC-Light wykorzystuje moc modeli Stable Diffusion do kodowania i dekodowania obrazów. Proces można podzielić na następujące kroki:
2.1. Kodowanie: Obraz wejściowy jest przetwarzany przez Stable Diffusion VAE (Wariacyjny Autoenkoder), aby uzyskać skompresowaną reprezentację przestrzeni latentnej.
2.2. Edycja: Żądane edycje są stosowane do określonych regionów reprezentacji latentnej. Zwykle odbywa się to poprzez łączenie oryginalnej latentnej z maską wskazującą obszary do zmodyfikowania oraz odpowiednimi wskazówkami edycji.
2.3. Dekodowanie: Zmodyfikowana reprezentacja latentna jest przetwarzana przez dekoder Stable Diffusion, aby odtworzyć edytowany obraz.
Działając w przestrzeni latentnej, IC-Light może dokonywać lokalnych edycji przy zachowaniu ogólnej spójności i stylu obrazu.
3. Jak korzystać z ComfyUI IC-Light
Głównym węzłem, z którym będziesz pracować, jest węzeł "IC-Light Apply", który obsługuje cały proces kodowania, edytowania i dekodowania twojego obrazu.
3.1. Parametry wejściowe "IC-Light Apply":
Węzeł "IC-Light Apply" wymaga trzech głównych danych wejściowych:
- model: Jest to podstawowy model Stable Diffusion, który będzie używany do kodowania i dekodowania twojego obrazu.
- ic_model: Jest to wstępnie wytrenowany model IC-Light, który zawiera niezbędne wagi do procesu edycji.
- c_concat: Jest to specjalne wejście, które łączy twój oryginalny obraz, maskę wskazującą, które obszary edytować, oraz wskazówki edycji, które definiują, jak te obszary powinny być zmodyfikowane.
Aby stworzyć wejście c_concat:
- Użyj węzła VAEEncodeArgMax, aby zakodować swój oryginalny obraz. Ten węzeł zapewnia, że uzyskuje się najbardziej prawdopodobną reprezentację latentną twojego obrazu.
- Użyj węzła ICLightApplyMaskGrey, aby stworzyć zamaskowaną wersję twojego obrazu. Ten węzeł przyjmuje twój oryginalny obraz i maskę jako dane wejściowe, a jego wynikiem jest wersja obrazu, w której niezamaskowane obszary są wyszarzone.
- Stwórz reprezentacje latentne swoich wskazówek edycji. Te wskazówki będą kierować modyfikacjami w wybranych regionach twojego obrazu.
- Połącz reprezentacje latentne twojego oryginalnego obrazu, maski i wskazówek edycji w jedno wejście dla węzła "IC-Light Apply".
3.2. Parametry wyjściowe "IC-Light Apply":
Po przetworzeniu twoich danych wejściowych, węzeł "IC-Light Apply" wyjściem będzie jeden parametr:
- model: Jest to zmodyfikowany model Stable Diffusion z zastosowanymi modyfikacjami IC-Light.
Aby wygenerować swój ostateczny edytowany obraz, po prostu podłącz wyjściowy model do odpowiednich węzłów w swoim przepływie pracy ComfyUI, takich jak węzły KSampler i VAEDecode.
3.3. Wskazówki dla najlepszych wyników:
- Używaj wysokiej jakości masek: Aby upewnić się, że twoje edycje są precyzyjne i skuteczne, upewnij się, że twoje maski dokładnie określają obszary, które chcesz zmodyfikować.
- Eksperymentuj z różnymi wskazówkami edycji: Wskazówki edycji są tym, co kieruje modyfikacjami wybranych regionów twojego obrazu. Nie krępuj się próbować różnych wskazówek, aby osiągnąć pożądany efekt, i nie wahaj się dopracować swoich wskazówek na podstawie uzyskanych wyników.
- Równoważ globalne i lokalne edycje: Chociaż IC-Light świetnie nadaje się do dokonywania lokalnych edycji, ważne jest, aby wziąć pod uwagę ogólną kompozycję i spójność twojego obrazu. Staraj się znaleźć równowagę między skoncentrowanymi edycjami a globalnymi dostosowaniami, aby zachować integralność swojego wygenerowanego dzieła sztuki.
Aby uzyskać więcej informacji, odwiedź github