ComfyUI  >  Workflow  >  Konzistentní přenos stylu s Unsampling

Konzistentní přenos stylu s Unsampling

Tento workflow zkoumá Unsampling jako metodu pro konzistentní přenos stylu ve Stable Diffusion. Kontrolou latentního šumu Unsampling zajišťuje, že pohyb a kompozice videa jsou zachovány, což činí přechody stylu plynulejšími a konzistentnějšími!

ComfyUI Unsampling Pracovní postup

Consistent Style Transfer with Unsampling in Stable Diffusion
Chcete spustit toto workflow?
  • Plně funkční workflow
  • Žádné chybějící uzly nebo modely
  • Není nutné žádné ruční nastavení
  • Obsahuje úchvatné vizuály

ComfyUI Unsampling Příklady

ComfyUI Unsampling Popis

Tento Unsampling průvodce, napsaný Inner-Reflections, výrazně přispívá k prozkoumání metody Unsampling pro dosažení dramaticky konzistentního přenosu stylu videa.

1. Úvod: Kontrola latentního šumu s Unsampling

Latentní šum je základem všeho, co děláme se Stable Diffusion. Je úžasné se na chvíli zastavit a přemýšlet, co jsme schopni s tímto dosáhnout. Obecně řečeno jsme však nuceni používat náhodné číslo k generování šumu. Co kdybychom to mohli kontrolovat?

Nejsem první, kdo používá Unsampling. Existuje již velmi dlouho a byl používán několika různými způsoby. Dosud jsem však obecně nebyl spokojen s výsledky. Strávil jsem několik měsíců hledáním nejlepších nastavení a doufám, že si tento průvodce užijete.

Použitím sampling procesu s AnimateDiff/Hotshot můžeme najít šum, který reprezentuje naše původní video a tím usnadňuje jakýkoli typ přenosu stylu. Je to zvláště užitečné pro udržení konzistence Hotshot vzhledem k jeho 8 rámcovému kontextovému oknu.

Tento Unsampling proces v podstatě převádí naše vstupní video na latentní šum, který udržuje pohyb a kompozici původního videa. Poté můžeme použít tento reprezentativní šum jako výchozí bod pro difuzní proces místo náhodného šumu. To umožňuje AI aplikovat cílový styl při zachování časové konzistence.

Tento průvodce předpokládá, že máte nainstalovaný AnimateDiff a/nebo Hotshot. Pokud jste tak ještě neučinili, průvodce jsou dostupné zde:

AnimateDiff: https://civitai.com/articles/2379

Hotshot XL průvodce: https://civitai.com/articles/2601/

Odkaz na zdroj - Pokud chcete zveřejňovat videa na Civitai pomocí tohoto workflow. https://civitai.com/models/544534

2. Systémové požadavky pro tento Workflow

Doporučuje se počítač s Windows a grafickou kartou NVIDIA s alespoň 12GB VRAM. Na platformě RunComfy použijte stroj střední třídy (16GB VRAM) nebo vyšší. Tento proces nevyžaduje více VRAM než standardní AnimateDiff nebo Hotshot workflow, ale trvá téměř dvakrát déle, protože v podstatě provádí difuzní proces dvakrát—jednou pro upsampling a jednou pro resampling s cílovým stylem.

3. Vysvětlení uzlů a průvodce nastavením

Uzel: Custom Sampler

Unsampling: Custom Sampler

Hlavní částí tohoto je použití Custom Sampler, který rozděluje všechna nastavení, která obvykle vidíte v běžném KSampler, na části:

Toto je hlavní KSampler uzel - pro unsampling přidávání šumu/semene nemá žádný vliv (o kterém bych věděl). CFG je důležité - obecně platí, že čím vyšší je CFG v tomto kroku, tím blíže bude video vypadat vašemu původnímu. Vyšší CFG nutí unsampler, aby se více přiblížil vstupu.

Uzel: KSampler Select

Unsampling: KSampler Select

Nejdůležitější je použít sampler, který konverguje! Proto používáme euler místo euler a, protože ten druhý vede k větší náhodnosti/instabilitě. Ancestrální samplery, které přidávají šum v každém kroku, brání unsampling v čisté konvergenci. Pokud si chcete přečíst více o tomto, vždy jsem našel  užitečný. @spacepxl na reddit navrhuje, že DPM++ 2M Karras je možná přesnější sampler v závislosti na použití.

Uzel: Align Your Step Scheduler

Unsampling: Align Your Step Scheduler

Jakýkoli scheduler zde bude fungovat dobře - Align Your Steps (AYS) však dosahuje dobrých výsledků s 16 kroky, takže jsem se rozhodl použít tento pro snížení výpočetního času. Více kroků se konverguje více, ale s klesajícími výnosy.

Uzel: Flip Sigma

Unsampling: Flip Sigma

Flip Sigma je magický uzel, který způsobuje, že unsampling nastane! Otočením sigma plánu obracíme difuzní proces, abychom přešli z čistého vstupního obrazu na reprezentativní šum.

Uzel: Prompt

Unsampling: Prompt

Prompting má v této metodě značný význam z nějakého důvodu. Dobré prompty mohou opravdu zlepšit koherenci videa, zejména čím více chcete tlačit na transformaci. Pro tento příklad jsem použil stejné podmínění jak pro unsampler, tak pro resampler. Zdá se, že to obecně funguje dobře - nic vám však nebrání vložit prázdné podmínění do unsampler - zjistil jsem, že to pomáhá zlepšit přenos stylu, možná s trochou ztráty konzistence.

Uzel: Resampling

Unsampling: Resampling

Pro resampling je důležité mít přidávání šumu vypnuté (i když mít prázdný šum v nastaveních AnimateDiff má stejný efekt - udělal jsem obojí pro svůj workflow). Pokud přidáte šum během resampling, dostanete nekonzistentní, šumový výsledek, alespoň s výchozími nastaveními. Jinak doporučuji začít s poměrně nízkým CFG v kombinaci se slabými nastaveními ControlNet, protože to se zdá dávat nejkonzistentnější výsledky, zatímco stále umožňuje promptu ovlivnit styl.

Další nastavení

Zbytek mých nastavení je osobní preference. Tento workflow jsem zjednodušil, jak jen si myslím, že je to možné, a přitom zahrnuje klíčové komponenty a nastavení.

4. Informace o workflow

Výchozí workflow používá model SD1.5. Můžete však přepnout na SDXL jednoduše změnou checkpointu, VAE, modelu AnimateDiff, modelu ControlNet a modelu step schedule na SDXL.

5. Důležité poznámky/problémy

  • Blikání - Pokud se podíváte na dekódované a zobrazené latenty vytvořené unsampling v mých workflow, všimnete si některých s evidentními barevnými abnormalitami. Přesná příčina mi není jasná, a obecně neovlivňují konečné výsledky. Tyto abnormality jsou zvláště zřejmé u SDXL. Mohou však někdy způsobit blikání ve vašem videu. Hlavní příčinou se zdá být ControlNets - snížení jejich síly může pomoci. Změna promptu nebo dokonce mírná změna scheduleru může také udělat rozdíl. Stále se s tímto problémem setkávám - pokud máte řešení, dejte mi prosím vědět!
    • DPM++ 2M může někdy zlepšit blikání.

6. Kam dál odtud?

Toto vypadá jako zcela nový způsob, jak kontrolovat konzistenci videa, takže je zde mnoho k prozkoumání. Pokud chcete mé návrhy:

  • Zkuste kombinovat/maskovat šum z několika zdrojových videí.
  • Přidejte IPAdapter pro konzistentní transformaci postav.

O autorovi

Inner-Reflections

  • https://x.com/InnerRefle11312
  • https://civitai.com/user/Inner_Reflections_AI

Chcete více workflow pro ComfyUI?

RunComfy

© Autorská práva 2024 RunComfy. Všechna práva vyhrazena.

RunComfy je přední ComfyUI platforma, nabízející ComfyUI online prostředí a služby, spolu s workflow ComfyUI s úchvatnými vizuály.