ComfyUI  >  Samouczki  >  Odkryj moc ComfyUI: Przewodnik dla początkujących z praktyką

Cześć, drodzy artyści AI! 👋 Witamy w naszym przyjaznym dla początkujących tutorialu na temat ComfyUI, niezwykle potężnego i elastycznego narzędzia do tworzenia oszałamiających dzieł sztuki generowanych przez AI. 🎨 W tym przewodniku przeprowadzimy Cię przez podstawy ComfyUI, zbadamy jego funkcje i pomożemy Ci odkryć jego potencjał, aby przenieść Twoją sztukę AI na wyższy poziom. 🚀

Omówimy:

1. Czym jest ComfyUI?

  • 1.1. ComfyUI vs. AUTOMATIC1111
  • 1.2. Od czego zacząć z ComfyUI?
  • 1.3. Podstawowe Kontrole

2. Przepływy pracy ComfyUI: Tekst-na-Obraz

  • 2.1. Wybór modelu
  • 2.2. Wprowadzanie pozytywnej i negatywnej podpowiedzi
  • 2.3. Generowanie obrazu
  • 2.4. Techniczne wyjaśnienie ComfyUI
    • 2.4.1 Wczytywanie węzła Checkpoint
    • 2.4.2. Kodowanie tekstu CLIP
    • 2.4.3. Pusty obraz latentny
    • 2.4.4. VAE
    • 2.4.5. KSampler

3. Przepływ pracy ComfyUI: Obraz-na-Obraz

4. ComfyUI SDXL

5. ComfyUI Inpainting

6. ComfyUI Outpainting

7. ComfyUI Upscale

  • 7.1. Upscale Pixel
    • 7.1.1. Upscale Pixel według algorytmu
    • 7.1.2. Upscale Pixel według modelu
  • 7.2. Upscale Latent
  • 7.3. Upscale Pixel vs. Upscale Latent

8. ComfyUI ControlNet

9. ComfyUI Manager

  • 9.1. Jak zainstalować brakujące niestandardowe węzły
  • 9.2. Jak zaktualizować niestandardowe węzły
  • 9.3. Jak załadować niestandardowe węzły do swojego przepływu pracy

10. ComfyUI Embeddings

  • 10.1. Embedding z autouzupełnianiem
  • 10.2. Waga embedding

11. ComfyUI LoRA

  • 11.1. Proste przepływy pracy LoRA
  • 11.2. Wiele LoRA

12. Skróty i triki dla ComfyUI

  • 12.1. Kopiowanie i wklejanie
  • 12.2. Przenoszenie wielu węzłów
  • 12.3. Ominięcie węzła
  • 12.4. Minimalizacja węzła
  • 12.5. Generowanie obrazu
  • 12.6. Osadzony przepływ pracy
  • 12.7. Naprawianie nasion, aby zaoszczędzić czas

13. ComfyUI Online

1. Czym jest ComfyUI? 🤔

ComfyUI jest jak magiczna różdżka 🪄 do tworzenia oszałamiających dzieł sztuki generowanych przez AI z łatwością. W swoim rdzeniu, ComfyUI jest graficznym interfejsem użytkownika opartym na węzłach (GUI) zbudowanym na Stable Diffusion, nowoczesnym modelu głębokiego uczenia, który generuje obrazy na podstawie opisów tekstowych. 🌟 Ale to, co naprawdę wyróżnia ComfyUI, to sposób, w jaki umożliwia artystom takim jak Ty uwolnienie swojej kreatywności i urzeczywistnienie swoich najdzikszych pomysłów.

Wyobraź sobie cyfrowe płótno, na którym możesz skonstruować swoje unikalne przepływy pracy generowania obrazów, łącząc różne węzły, z których każdy reprezentuje określoną funkcję lub operację. 🧩 To jak budowanie wizualnego przepisu na swoje dzieła sztuki generowane przez AI!

Chcesz wygenerować obraz od podstaw za pomocą tekstowej podpowiedzi? Jest na to węzeł! Potrzebujesz zastosować konkretny sampler lub dostroić poziom szumu? Po prostu dodaj odpowiednie węzły i obserwuj, jak dzieje się magia. ✨

Ale oto najlepsza część: ComfyUI rozbija przepływ pracy na elementy, które można przestawiać, dając Ci wolność tworzenia własnych niestandardowych przepływów pracy dostosowanych do Twojej wizji artystycznej. 🖼️ To jak posiadanie spersonalizowanego zestawu narzędzi, który dostosowuje się do Twojego procesu twórczego.

1.1. ComfyUI vs. AUTOMATIC1111 🆚

AUTOMATIC1111 jest domyślnym GUI dla Stable Diffusion. Więc czy powinieneś używać ComfyUI zamiast tego? Porównajmy:

✅ Korzyści z używania ComfyUI:

  1. Lekkość: Działa szybko i wydajnie.
  2. Elastyczność: Wysoce konfigurowalny, aby dostosować się do Twoich potrzeb.
  3. Przejrzystość: Przepływ danych jest widoczny i łatwy do zrozumienia.
  4. Łatwość udostępniania: Każdy plik reprezentuje powtarzalny przepływ pracy.
  5. Dobre do prototypowania: Twórz prototypy za pomocą graficznego interfejsu zamiast kodowania.

❌ Wady używania ComfyUI:

  1. Niekonsekwentny interfejs: Każdy przepływ pracy może mieć inny układ węzłów.
  2. Za dużo szczegółów: Przeciętni użytkownicy mogą nie potrzebować znać połączeń podstawowych.

1.2. Od czego zacząć z ComfyUI? 🏁

Uważamy, że najlepszym sposobem na naukę ComfyUI jest zanurzenie się w przykłady i doświadczenie tego na własnej skórze. 🙌 Dlatego stworzyliśmy ten unikalny tutorial, który wyróżnia się spośród innych. W tym tutorialu znajdziesz szczegółowy, krok po kroku przewodnik, który możesz śledzić.

Ale oto najlepsza część: 🌟 Zintegrowaliśmy ComfyUI bezpośrednio z tą stroną! Będziesz mógł interaktywnie korzystać z przykładów ComfyUI w czasie rzeczywistym, przechodząc przez przewodnik.🌟 Zanurzmy się!

2. Przepływy pracy ComfyUI: Tekst-na-Obraz 🖼️

Zacznijmy od najprostszego przypadku: generowania obrazu z tekstu. Kliknij Queue Prompt, aby uruchomić przepływ pracy. Po krótkim oczekiwaniu powinieneś zobaczyć swój pierwszy wygenerowany obraz! Aby sprawdzić swoją kolejkę, kliknij View Queue.

Oto domyślny przepływ pracy tekst-na-obraz, który możesz wypróbować:

Podstawowe elementy budulcowe 🕹️

Przepływ pracy ComfyUI składa się z dwóch podstawowych elementów budulcowych: Węzły i Krawędzie.

  • Węzły to prostokątne bloki, np. Load Checkpoint, Clip Text Encoder, itp. Każdy węzeł wykonuje określony kod i wymaga wejść, wyjść i parametrów.
  • Krawędzie to przewody łączące wyjścia i wejścia między węzłami.

Podstawowe Kontrole 🕹️

  • Powiększaj i pomniejszaj za pomocą kółka myszy lub dwupalczowego szczypania.
  • Przeciągnij i przytrzymaj kropkę wejścia lub wyjścia, aby utworzyć połączenia między węzłami.
  • Poruszaj się po przestrzeni roboczej, przytrzymując i przeciągając lewym przyciskiem myszy.

Zanurzmy się w szczegóły tego przepływu pracy.

ComfyUI workflow: text to image

2.1. Wybór modelu 🗃️

Najpierw wybierz model Checkpoint Stable Diffusion w węźle Load Checkpoint. Kliknij nazwę modelu, aby zobaczyć dostępne modele. Jeśli kliknięcie nazwy modelu nic nie robi, może być konieczne przesłanie niestandardowego modelu.

2.2. Wprowadzanie pozytywnej i negatywnej podpowiedzi 📝

Zobaczysz dwa węzły oznaczone CLIP Text Encode (Prompt). Górna podpowiedź jest połączona z wejściem positive węzła KSampler, podczas gdy dolna podpowiedź jest połączona z wejściem negative. Wprowadź swoją pozytywną podpowiedź w górnym węźle, a negatywną podpowiedź w dolnym.

Węzeł CLIP Text Encode konwertuje podpowiedź na tokeny i koduje je w embeddingi za pomocą enkodera tekstu.

💡 Wskazówka: Użyj składni (słowo kluczowe:waga), aby kontrolować wagę słowa kluczowego, np. (słowo kluczowe:1.2), aby zwiększyć jego efekt, lub (słowo kluczowe:0.8), aby go zmniejszyć.

2.3. Generowanie obrazu 🎨

Kliknij Queue Prompt, aby uruchomić przepływ pracy. Po krótkim oczekiwaniu Twój pierwszy obraz zostanie wygenerowany!

2.4. Techniczne wyjaśnienie ComfyUI 🤓

Moc ComfyUI leży w jego konfigurowalności. Zrozumienie, co robi każdy węzeł, pozwala dostosować je do swoich potrzeb. Ale zanim zagłębimy się w szczegóły, przyjrzyjmy się procesowi Stable Diffusion, aby lepiej zrozumieć, jak działa ComfyUI.

Proces Stable Diffusion można podsumować w trzech głównych krokach:

  1. Kodowanie tekstu: Podpowiedź wprowadzona przez użytkownika jest kompilowana do wektorów cech poszczególnych słów przez komponent zwany Enkoderem Tekstu. Ten krok konwertuje tekst na format, który model może zrozumieć i przetworzyć.
  2. Transformacja przestrzeni latentnej: Wektory cech z Enkodera Tekstu i losowy obraz szumu są przekształcane w przestrzeń latentną. W tej przestrzeni losowy obraz przechodzi proces denoisingu na podstawie wektorów cech, co skutkuje produktem pośrednim. Ten krok to miejsce, gdzie dzieje się magia, ponieważ model uczy się kojarzyć cechy tekstowe z reprezentacjami wizualnymi.
  3. Dekodowanie obrazu: Na koniec, produkt pośredni z przestrzeni latentnej jest dekodowany przez Dekoder Obrazu, przekształcając go w rzeczywisty obraz, który możemy zobaczyć i docenić.

Teraz, gdy mamy ogólne zrozumienie procesu Stable Diffusion, zanurzmy się w kluczowe komponenty i węzły w ComfyUI, które umożliwiają ten proces.

2.4.1 Wczytywanie węzła Checkpoint 🗃️

Węzeł Load Checkpoint w ComfyUI jest kluczowy do wyboru modelu Stable Diffusion. Model Stable Diffusion składa się z trzech głównych komponentów: MODEL, CLIP i VAE. Przyjrzyjmy się każdemu z nich i jego relacji z odpowiednimi węzłami w ComfyUI.

  1. MODEL: Komponent MODEL to model predykcji szumu, który działa w przestrzeni latentnej. Jest odpowiedzialny za główny proces generowania obrazów z reprezentacji latentnej. W ComfyUI wyjście MODEL węzła Load Checkpoint łączy się z węzłem KSampler, gdzie odbywa się proces odwrotnego dyfuzji. Węzeł KSampler używa MODEL do denoisingu reprezentacji latentnej iteracyjnie, stopniowo poprawiając obraz, aż będzie odpowiadał żądanej podpowiedzi.
  2. CLIP: CLIP (Contrastive Language-Image Pre-training) to model językowy, który przetwarza pozytywne i negatywne podpowiedzi dostarczone przez użytkownika. Konwertuje podpowiedzi tekstowe na format, który MODEL może zrozumieć i wykorzystać do kierowania procesem generowania obrazów. W ComfyUI wyjście CLIP węzła Load Checkpoint łączy się z węzłem CLIP Text Encode. Węzeł CLIP Text Encode przyjmuje podpowiedzi dostarczone przez użytkownika i wprowadza je do modelu językowego CLIP, przekształcając każde słowo w embeddingi. Te embeddingi uchwytują znaczenie słów i umożliwiają MODEL generowanie obrazów, które odpowiadają podanym podpowiedziom.
  3. VAE: VAE (Variational AutoEncoder) jest odpowiedzialny za konwersję obrazów między przestrzenią pikseli a przestrzenią latentną. Składa się z enkodera, który kompresuje obraz do niżej wymiarowej reprezentacji latentnej, oraz dekodera, który rekonstruuje obraz z reprezentacji latentnej. W procesie tekst-na-obraz VAE jest używany tylko w końcowym kroku, aby przekształcić wygenerowany obraz z przestrzeni latentnej z powrotem do przestrzeni pikseli. Węzeł VAE Decode w ComfyUI przyjmuje wyjście węzła KSampler (który działa w przestrzeni latentnej) i używa dekodera części VAE do przekształcania reprezentacji latentnej w końcowy obraz w przestrzeni pikseli.

Ważne jest, aby zauważyć, że VAE jest oddzielnym komponentem od modelu językowego CLIP. Podczas gdy CLIP koncentruje się na przetwarzaniu podpowiedzi tekstowych, VAE zajmuje się konwersją między przestrzeniami pikseli i latentnymi.

2.4.2. Kodowanie tekstu CLIP 📝

Węzeł CLIP Text Encode w ComfyUI jest odpowiedzialny za przyjmowanie podpowiedzi dostarczonych przez użytkownika i wprowadzanie ich do modelu językowego CLIP. CLIP jest potężnym modelem językowym, który rozumie znaczenie semantyczne słów i może kojarzyć je z koncepcjami wizualnymi. Kiedy podpowiedź jest wprowadzana do węzła CLIP Text Encode, przechodzi proces transformacji, w którym każde słowo jest przekształcane w embeddingi. Te embeddingi to wektory wielowymiarowe, które uchwytują informacje semantyczne słów. Poprzez przekształcanie podpowiedzi w embeddingi, CLIP umożliwia MODEL generowanie obrazów, które dokładnie odzwierciedlają znaczenie i intencję podanych podpowiedzi.

2.4.3. Pusty obraz latentny 🌌

W procesie tekst-na-obraz generowanie rozpoczyna się od losowego obrazu w przestrzeni latentnej. Ten losowy obraz służy jako stan początkowy dla MODEL. Rozmiar obrazu latentnego jest proporcjonalny do rzeczywistego rozmiaru obrazu w przestrzeni pikseli. W ComfyUI możesz dostosować wysokość i szerokość obrazu latentnego, aby kontrolować rozmiar wygenerowanego obrazu. Dodatkowo możesz ustawić rozmiar partii, aby określić liczbę obrazów generowanych przy każdym uruchomieniu.

Optymalne rozmiary obrazów latentnych zależą od konkretnego modelu Stable Diffusion, który jest używany. Dla modeli SD v1.5 zalecane rozmiary to 512x512 lub 768x768, podczas gdy dla modeli SDXL optymalny rozmiar to 1024x1024. ComfyUI oferuje szereg popularnych proporcji do wyboru, takich jak 1:1 (kwadrat), 3:2 (krajobraz), 2:3 (portret), 4:3 (krajobraz), 3:4 (portret), 16:9 (szerokoekranowy) i 9:16 (pionowy). Ważne jest, aby szerokość i wysokość obrazu latentnego były podzielne przez 8, aby zapewnić kompatybilność z architekturą modelu.

2.4.4. VAE 🔍

VAE (Variational AutoEncoder) jest kluczowym komponentem w modelu Stable Diffusion, który obsługuje konwersję obrazów między przestrzenią pikseli a przestrzenią latentną. Składa się z dwóch głównych części: Enkodera Obrazu i Dekodera Obrazu.

Enkoder Obrazu przyjmuje obraz w przestrzeni pikseli i kompresuje go do niżej wymiarowej reprezentacji latentnej. Ten proces kompresji znacznie zmniejsza rozmiar danych, co umożliwia bardziej efektywne przetwarzanie i przechowywanie. Na przykład, obraz o rozmiarze 512x512 pikseli może być skompresowany do reprezentacji latentnej o rozmiarze 64x64.

Z drugiej strony, Dekoder Obrazu, znany również jako Dekoder VAE, jest odpowiedzialny za rekonstrukcję obrazu z reprezentacji latentnej z powrotem do przestrzeni pikseli. Przyjmuje skompresowaną reprezentację latentną i rozszerza ją, aby wygenerować ostateczny obraz.

Używanie VAE oferuje kilka zalet:

  1. Efektywność: Kompresując obraz do niżej wymiarowej przestrzeni latentnej, VAE umożliwia szybsze generowanie i krótsze czasy treningu. Zmniejszony rozmiar danych pozwala na bardziej efektywne przetwarzanie i wykorzystanie pamięci.
  2. Manipulacja przestrzenią latentną: Przestrzeń latentna zapewnia bardziej kompaktową i znaczącą reprezentację obrazu. To pozwala na bardziej precyzyjną kontrolę i edycję szczegółów i stylu obrazu. Manipulując reprezentacją latentną, możliwe staje się modyfikowanie konkretnych aspektów wygenerowanego obrazu.

Jednakże, istnieją również pewne wady do rozważenia:

  1. Utrata danych: Podczas procesu enkodowania i dekodowania, niektóre szczegóły oryginalnego obrazu mogą zostać utracone. Kroki kompresji i rekonstrukcji mogą wprowadzić artefakty lub drobne wariacje w ostatecznym obrazie w porównaniu do oryginału.
  2. Ograniczone uchwycenie oryginalnych danych: Niżej wymiarowa przestrzeń latentna może nie być w stanie w pełni uchwycić wszystkich skomplikowanych cech i szczegółów oryginalnego obrazu. Niektóre informacje mogą zostać utracone podczas procesu kompresji, co skutkuje nieco mniej dokładną reprezentacją oryginalnych danych.

Pomimo tych ograniczeń, VAE odgrywa kluczową rolę w modelu Stable Diffusion, umożliwiając efektywną konwersję między przestrzenią pikseli a przestrzenią latentną, ułatwiając szybsze generowanie i bardziej precyzyjną kontrolę nad wygenerowanymi obrazami.

2.4.5. KSampler ⚙️

Węzeł KSampler w ComfyUI jest sercem procesu generowania obrazów w Stable Diffusion. Jest odpowiedzialny za denoising losowego obrazu w przestrzeni latentnej, aby dopasować go do podpowiedzi użytkownika. Węzeł KSampler stosuje technikę zwaną odwrotną dyfuzją, gdzie iteracyjnie poprawia reprezentację latentną, usuwając szum i dodając znaczące szczegóły na podstawie wskazówek z embeddingów CLIP.

Węzeł KSampler oferuje kilka parametrów, które pozwalają użytkownikom dostroić proces generowania obrazów:

Seed: Wartość seed kontroluje początkowy szum i kompozycję ostatecznego obrazu. Ustawiając konkretny seed, użytkownicy mogą osiągnąć powtarzalne wyniki i utrzymać spójność między wieloma generacjami.

Control_after_generation: Ten parametr określa, jak wartość seed zmienia się po każdej generacji. Może być ustawiony na losowanie (generowanie nowego losowego seed dla każdego uruchomienia), inkrementację (zwiększenie wartości seed o 1), dekrementację (zmniejszenie wartości seed o 1) lub stałą (utrzymanie stałej wartości seed).

Step: Liczba kroków próbkowania określa intensywność procesu poprawy. Wyższe wartości skutkują mniejszą liczbą artefaktów i bardziej szczegółowymi obrazami, ale również wydłużają czas generowania.

Sampler_name: Ten parametr pozwala użytkownikom wybrać konkretny algorytm próbkowania używany przez KSampler. Różne algorytmy próbkowania mogą dawać nieco inne wyniki i mają różne prędkości generowania.

Scheduler: Scheduler kontroluje, jak poziom szumu zmienia się na każdym kroku procesu denoisingu. Określa tempo, w jakim szum jest usuwany z reprezentacji latentnej.

Denoise: Parametr denoise ustawia ilość początkowego szumu, który ma zostać usunięty w procesie denoisingu. Wartość 1 oznacza, że cały szum zostanie usunięty, co skutkuje czystym i szczegółowym obrazem.

Dostosowując te parametry, możesz dostroić proces generowania obrazów, aby osiągnąć pożądane wyniki.

Teraz, czy jesteś gotowy, aby rozpocząć swoją podróż z ComfyUI?

W RunComfy stworzyliśmy ostateczne doświadczenie ComfyUI online specjalnie dla Ciebie. Pożegnaj się z skomplikowanymi instalacjami! 🎉 Wypróbuj ComfyUI Online teraz i uwolnij swój artystyczny potencjał jak nigdy dotąd! 🎉

3. Przepływ pracy ComfyUI: Obraz-na-Obraz 🖼️

Przepływ pracy Obraz-na-Obraz generuje obraz na podstawie podpowiedzi i obrazu wejściowego. Wypróbuj to sam!

Aby użyć przepływu pracy Obraz-na-Obraz:

  1. Wybierz model checkpoint.
  2. Prześlij obraz jako podpowiedź obrazową.
  3. Zaktualizuj pozytywne i negatywne podpowiedzi.
  4. Opcjonalnie dostosuj denoise (siłę denoisingu) w węźle KSampler.
  5. Naciśnij Queue Prompt, aby rozpocząć generowanie.
ComfyUI workflow: image to image

Aby uzyskać więcej premiumowych przepływów pracy ComfyUI, odwiedź naszą 🌟Listę Przepływów Pracy ComfyUI🌟

4. ComfyUI SDXL 🚀

Dzięki swojej ekstremalnej konfigurowalności, ComfyUI jest jednym z pierwszych GUI, które obsługuje model Stable Diffusion XL. Wypróbujmy to!

Aby użyć przepływu pracy ComfyUI SDXL:

  1. Zaktualizuj pozytywne i negatywne podpowiedzi.
  2. Naciśnij Queue Prompt, aby rozpocząć generowanie.

5. ComfyUI Inpainting 🎨

Zanurzmy się w coś bardziej skomplikowanego: inpainting! Kiedy masz świetny obraz, ale chcesz zmodyfikować konkretne części, inpainting jest najlepszą metodą. Wypróbuj to tutaj!

Aby użyć przepływu pracy inpainting:

  1. Prześlij obraz, który chcesz inpaintować.
  2. Kliknij prawym przyciskiem myszy obraz i wybierz "Open in MaskEditor". Zamaskuj obszar do wygenerowania na nowo, a następnie kliknij "Save to node". ComfyUI workflow: inpainting
  3. Wybierz model Checkpoint:
    • Ten przepływ pracy działa tylko z standardowym modelem Stable Diffusion, a nie modelem Inpainting.
    • Jeśli chcesz użyć modelu inpainting, proszę zamienić węzły "VAE Encode" i "Set Noise Latent Mask" na węzeł "VAE Encode (Inpaint)", który jest specjalnie zaprojektowany do modeli inpainting.
  4. Dostosuj proces inpainting:
    • W węźle CLIP Text Encode (Prompt) możesz wprowadzić dodatkowe informacje, aby kierować inpainting. Na przykład, możesz określić styl, temat lub elementy, które chcesz uwzględnić w obszarze inpainting.
  5. Ustaw początkową siłę denoisingu (denoise), np. 0.6.
  6. Naciśnij Queue Prompt, aby wykonać inpainting.
ComfyUI inpainting workflow

6. ComfyUI Outpainting 🖌️

Outpainting to kolejna ekscytująca technika, która pozwala rozszerzać obrazy poza ich oryginalne granice. 🌆 To jak posiadanie nieskończonego płótna do pracy!

Aby użyć przepływu pracy ComfyUI Outpainting:

  1. Zacznij od obrazu, który chcesz rozszerzyć.
  2. Użyj węzła Pad Image for Outpainting w swoim przepływie pracy.
  3. Skonfiguruj ustawienia outpainting:
    • lewo, góra, prawo, dół: Określ liczbę pikseli do rozszerzenia w każdym kierunku.
    • feathering: Dostosuj płynność przejścia między oryginalnym obrazem a obszarem outpainting. Wyższe wartości tworzą bardziej stopniowe przejście, ale mogą wprowadzać efekt rozmycia.
  4. Dostosuj proces outpainting:
    • W węźle CLIP Text Encode (Prompt) możesz wprowadzić dodatkowe informacje, aby kierować outpainting. Na przykład, możesz określić styl, temat lub elementy, które chcesz uwzględnić w rozszerzonym obszarze.
    • Eksperymentuj z różnymi podpowiedziami, aby osiągnąć pożądane wyniki.
  5. Dostosuj węzeł VAE Encode (for Inpainting):
    • Dostosuj parametr grow_mask_by, aby kontrolować rozmiar maski outpainting. Wartość większa niż 10 jest zalecana dla optymalnych wyników.
  6. Naciśnij Queue Prompt, aby rozpocząć proces outpainting.
ComfyUI outpainting workflow

Aby uzyskać więcej premiumowych przepływów pracy inpainting/outpainting, odwiedź naszą 🌟Listę Przepływów Pracy ComfyUI🌟

7. ComfyUI Upscale ⬆️

Następnie, przyjrzyjmy się ComfyUI upscale. Wprowadzimy trzy podstawowe przepływy pracy, które pomogą Ci efektywnie powiększać obrazy.

Istnieją dwie główne metody powiększania:

  1. Upscale pixel: Bezpośrednie powiększanie widocznego obrazu.
    • Wejście: obraz, Wyj -ście: powiększony obraz
  2. Upscale latent: Powiększanie niewidocznego obrazu w przestrzeni latentnej.
    • Wejście: latent, Wyjście: powiększony latent (wymaga dekodowania, aby stać się widocznym obrazem)

7.1. Upscale Pixel 🖼️

Dwa sposoby na osiągnięcie tego:

  1. Używając algorytmów: Najszybsza prędkość generowania, ale nieco gorsze wyniki w porównaniu do modeli.
  2. Używając modeli: Lepsze wyniki, ale wolniejszy czas generowania.

7.1.1. Upscale Pixel według algorytmu 🧮

  • Dodaj węzeł Upscale Image by.
  • parametr method: Wybierz algorytm powiększania (bicubic, bilinear, nearest-exact).
  • parametr Scale: Określ współczynnik powiększania (np. 2 dla 2x).
ComfyUI Upscale Pixel by Algorithm

7.1.2. Upscale Pixel według modelu 🤖

  • Dodaj węzeł Upscale Image (using Model).
  • Dodaj węzeł Load Upscale Model.
  • Wybierz model odpowiedni do typu obrazu (np. anime lub rzeczywisty).
  • Wybierz współczynnik powiększania (X2 lub X4).
ComfyUI Upscale Pixel by Model

7.2. Upscale Latent ⚙️

Inna metoda powiększania to Upscale Latent, znana również jako Hi-res Latent Fix Upscale, która bezpośrednio powiększa w przestrzeni latentnej.

ComfyUI Upscale Latent

7.3. Upscale Pixel vs. Upscale Latent 🆚

  • Upscale Pixel: Tylko powiększa obraz bez dodawania nowych informacji. Szybsze generowanie, ale może mieć efekt rozmycia i brakować szczegółów.
  • Upscale Latent: Oprócz powiększania, zmienia niektóre informacje oryginalnego obrazu, wzbogacając szczegóły. Może odbiegać od oryginalnego obrazu i ma wolniejszą prędkość generowania.

Aby uzyskać więcej premiumowych przepływów pracy restore/upscale, odwiedź naszą 🌟Listę Przepływów Pracy ComfyUI🌟

8. ComfyUI ControlNet 🎮

Przygotuj się na przeniesienie swojej sztuki AI na wyższy poziom z ControlNet, technologią, która rewolucjonizuje generowanie obrazów!

ControlNet jest jak magiczna różdżka 🪄, która daje Ci bezprecedensową kontrolę nad obrazami generowanymi przez AI. Współpracuje z potężnymi modelami, takimi jak Stable Diffusion, zwiększając ich możliwości i pozwalając Ci kierować procesem tworzenia obrazów jak nigdy dotąd!

Wyobraź sobie, że możesz określić krawędzie, pozy ludzkie, głębokość, a nawet mapy segmentacji swojego pożądanego obrazu. 🌠 Z ControlNet możesz to zrobić!

Jeśli chcesz zagłębić się w świat ControlNet i uwolnić jego pełen potencjał, mamy dla Ciebie szczegółowy tutorial na temat opanowania ControlNet w ComfyUI! 📚 Jest pełen przewodników krok po kroku i inspirujących przykładów, które pomogą Ci stać się ekspertem ControlNet. 🏆

9. ComfyUI Manager 🛠️

ComfyUI Manager to niestandardowy węzeł, który pozwala instalować i aktualizować inne niestandardowe węzły za pośrednictwem interfejsu ComfyUI. Znajdziesz przycisk Manager w menu Queue Prompt.

9.1. Jak zainstalować brakujące niestandardowe węzły 📥

Jeśli przepływ pracy wymaga niestandardowych węzłów, których nie masz zainstalowanych, wykonaj następujące kroki:

  1. Kliknij Manager w Menu.
  2. Kliknij Install Missing Custom Nodes.
  3. Całkowicie zrestartuj ComfyUI.
  4. Odśwież przeglądarkę.

9.2. Jak zaktualizować niestandardowe węzły 🔄

  1. Kliknij Manager w Menu.
  2. Kliknij Fetch Updates (może to potrwać chwilę).
  3. Kliknij Install Custom Nodes.
  4. Jeśli aktualizacja jest dostępna, przycisk Update pojawi się obok zainstalowanego niestandardowego węzła.
  5. Kliknij Update, aby zaktualizować węzeł.
  6. Zrestartuj ComfyUI.
  7. Odśwież przeglądarkę.
ComfyUI Manager

9.3. Jak załadować niestandardowe węzły do swojego przepływu pracy 🔍

Kliknij dwukrotnie dowolny pusty obszar, aby wywołać menu do wyszukiwania węzłów.

ComfyUI Manager

10. ComfyUI Embeddings 📝

Embeddings, znane również jako textual inversion, to potężna funkcja w ComfyUI, która pozwala wprowadzać niestandardowe koncepcje lub style do obrazów generowanych przez AI. 💡 To jak nauczanie AI nowego słowa lub frazy i kojarzenie go z konkretnymi cechami wizualnymi.

Aby używać embeddings w ComfyUI, po prostu wpisz "embedding:" a następnie nazwę swojego embeddingu w polu pozytywnej lub negatywnej podpowiedzi. Na przykład:

embedding: BadDream

ComfyUI Embeddings

Kiedy używasz tej podpowiedzi, ComfyUI będzie szukać pliku embedding o nazwie "BadDream" w folderze ComfyUI > models > embeddings. 📂 Jeśli znajdzie dopasowanie, zastosuje odpowiadające cechy wizualne do wygenerowanego obrazu.

Embeddings są świetnym sposobem na personalizację swojej sztuki AI i osiągnięcie konkretnych stylów lub estetyki. 🎨 Możesz tworzyć swoje własne embeddings, trenując je na zestawie obrazów, które reprezentują pożądaną koncepcję lub styl.

10.1. Embedding z autouzupełnianiem 🔠

Zapamiętywanie dokładnych nazw swoich embeddings może być uciążliwe, zwłaszcza jeśli masz dużą kolekcję. 😅 Tutaj z pomocą przychodzi niestandardowy węzeł ComfyUI-Custom-Scripts!

Aby włączyć autouzupełnianie nazw embedding:

  1. Otwórz ComfyUI Manager, klikając "Manager" w górnym menu.
  2. Przejdź do "Install Custom nodes" i wyszukaj "ComfyUI-Custom-Scripts".
  3. Kliknij "Install", aby dodać niestandardowy węzeł do swojej konfiguracji ComfyUI.
  4. Zrestartuj ComfyUI, aby zastosować zmiany.

Po zainstalowaniu węzła ComfyUI-Custom-Scripts, doświadczysz bardziej przyjaznego sposobu korzystania z embeddings. 😊 Po prostu zacznij wpisywać "embedding:" w polu podpowiedzi, a pojawi się lista dostępnych embeddings. Możesz wtedy wybrać pożądany embedding z listy, oszczędzając czas i wysiłek!

10.2. Waga embedding ⚖️

Czy wiesz, że możesz kontrolować siłę swoich embeddings? 💪 Ponieważ embeddings są zasadniczo słowami kluczowymi, możesz stosować do nich wagi, tak jak do zwykłych słów kluczowych w swoich podpowiedziach.

Aby dostosować wagę embedding, użyj następującej składni:

(embedding: BadDream:1.2)

W tym przykładzie waga embedding "BadDream" jest zwiększona o 20%. Wyższe wagi (np. 1.2) sprawią, że embedding będzie bardziej widoczny, podczas gdy niższe wagi (np. 0.8) zmniejszą jego wpływ. 🎚️ To daje Ci jeszcze większą kontrolę nad ostatecznym wynikiem!

11. ComfyUI LoRA 🧩

LoRA, skrót od Low-rank Adaptation, to kolejna ekscytująca funkcja w ComfyUI, która pozwala modyfikować i dostosowywać modele checkpoint. 🎨 To jak dodanie małego, specjalizowanego modelu na szczyt swojego modelu bazowego, aby osiągnąć konkretne style lub wprowadzić niestandardowe elementy.

Modele LoRA są kompaktowe i wydajne, co sprawia, że są łatwe w użyciu i udostępnianiu. Są powszechnie używane do zadań takich jak modyfikacja stylu artystycznego obrazu lub wprowadzanie konkretnej osoby lub obiektu do wygenerowanego wyniku.

Kiedy stosujesz model LoRA do modelu checkpoint, modyfikuje on komponenty MODEL i CLIP, pozostawiając VAE (Variational Autoencoder) nienaruszony. Oznacza to, że LoRA skupia się na dostosowywaniu treści i stylu obrazu, nie zmieniając jego ogólnej struktury.

11.1. Jak używać LoRA 🔧

Używanie LoRA w ComfyUI jest proste. Przyjrzyjmy się najprostszemu sposobowi:

  1. Wybierz model checkpoint, który będzie bazą dla generowania obrazów.
  2. Wybierz model LoRA, który chcesz zastosować, aby zmodyfikować styl lub wprowadzić konkretne elementy.
  3. Zaktualizuj pozytywne i negatywne podpowiedzi, aby kierować procesem generowania obrazów.
  4. Kliknij "Queue Prompt", aby rozpocząć generowanie obrazu z zastosowanym LoRA. ▶

ComfyUI następnie połączy model checkpoint i model LoRA, aby stworzyć obraz, który odzwierciedla podane podpowiedzi i wprowadza modyfikacje wprowadzone przez LoRA.

11.2. Wiele LoRA 🧩🧩

Ale co, jeśli chcesz zastosować wiele LoRA do jednego obrazu? Żaden problem! ComfyUI pozwala używać dwóch lub więcej LoRA w tym samym przepływie pracy tekst-na-obraz.

ComfyUI LoRA

Proces jest podobny do używania jednego LoRA, ale musisz wybrać wiele modeli LoRA zamiast jednego. ComfyUI zastosuje LoRA sekwencyjnie, co oznacza, że każdy LoRA będzie budować na modyfikacjach wprowadzonych przez poprzedni.

To otwiera świat możliwości łączenia różnych stylów, elementów i modyfikacji w swoich obrazach generowanych przez AI. 🌍💡 Eksperymentuj z różnymi kombinacjami LoRA, aby osiągnąć unikalne i kreatywne wyniki!

12. Skróty i triki dla ComfyUI ⌨️🖱️

12.1. Kopiowanie i wklejanie 📋

  • Wybierz węzeł i naciśnij Ctrl+C, aby skopiować.
  • Naciśnij Ctrl+V, aby wkleić.
  • Naciśnij Ctrl+Shift+V, aby wkleić z zachowaniem połączeń wejściowych.

12.2. Przenoszenie wielu węzłów 🖱️

  • Utwórz grupę, aby przenieść zestaw węzłów razem.
  • Alternatywnie, przytrzymaj Ctrl i przeciągnij, aby utworzyć pole, aby wybrać wiele węzłów lub przytrzymaj Ctrl, aby wybrać wiele węzłów indywidualnie.
  • Aby przenieść wybrane węzły, przytrzymaj Shift i poruszaj myszą.

12.3. Ominięcie węzła 🔇

  • Tymczasowo wyłącz węzeł, wyciszając go. Wybierz węzeł i naciśnij Ctrl+M.
  • Nie ma skrótu klawiaturowego do wyciszenia grupy. Wybierz Bypass Group Node w menu prawym przyciskiem myszy lub wycisz pierwszy węzeł w grupie, aby go wyłączyć.

12.4. Minimalizacja węzła 🔍

  • Kliknij kropkę w lewym górnym rogu węzła, aby go zminimalizować.

12.5. Generowanie obrazu ▶️

  • Naciśnij Ctrl+Enter, aby umieścić przepływ pracy w kolejce i generować obrazy.

12.6. Osadzony przepływ pracy 🖼️

  • ComfyUI zapisuje cały przepływ pracy w metadanych pliku PNG, który generuje. Aby załadować przepływ pracy, przeciągnij i upuść obraz do ComfyUI.

12.7. Naprawianie nasion, aby zaoszczędzić czas ⏰

  • ComfyUI ponownie uruchamia węzeł tylko wtedy, gdy wejście się zmienia. Pracując na długim łańcuchu węzłów, zaoszczędź czas, naprawiając nasiono, aby uniknąć ponownego generowania wyników upstream.

13. ComfyUI Online 🚀

Gratulacje za ukończenie tego przewodnika dla początkujących po ComfyUI! 🙌 Teraz jesteś gotowy, aby zanurzyć się w ekscytujący świat tworzenia sztuki AI. Ale po co męczyć się z instalacją, skoro można zacząć tworzyć od razu? 🤔

W RunComfy, ułatwiliśmy korzystanie z ComfyUI online bez żadnej konfiguracji. Nasza usługa ComfyUI Online jest wstępnie załadowana ponad 200 popularnymi węzłami i modelami, wraz z ponad 50 oszałamiającymi przepływami pracy, które zainspirują Twoje kreacje.

🌟 Niezależnie od tego, czy jesteś początkującym, czy doświadczonym artystą AI, RunComfy ma wszystko, czego potrzebujesz, aby urzeczywistnić swoje artystyczne wizje. 💡 Nie czekaj dłużej – wypróbuj ComfyUI Online teraz i doświadcz mocy tworzenia sztuki AI na wyciągnięcie ręki! 🚀

RunComfy

© Prawa autorskie 2024 RunComfy. Wszelkie prawa zastrzeżone.

RunComfy jest wiodącą ComfyUI platformą, oferującą ComfyUI online środowisko i usługi, wraz z przepływami pracy ComfyUI cechującymi się oszałamiającymi wizualizacjami.