ComfyUI  >  Workflow  >  AnimateDiff + ControlNet + AutoMask | Komiksový styl

AnimateDiff + ControlNet + AutoMask | Komiksový styl

V tomto workflow ComfyUI využíváme vlastní uzly jako Animatediff, ControlNet (s Depth a OpenPose) a Auto Mask k hladkému přestylizování videí. Tento proces přeměňuje realistické postavy na anime, přičemž pečlivě zachovává původní pozadí.

ComfyUI Vid2Vid Pracovní postup

ComfyUI AnimateDiff, ControlNet and Auto Mask Workflow
Chcete spustit toto workflow?
  • Plně funkční workflow
  • Žádné chybějící uzly nebo modely
  • Není nutné žádné ruční nastavení
  • Obsahuje úchvatné vizuály

ComfyUI Vid2Vid Příklady

ComfyUI Vid2Vid Popis

1. ComfyUI AnimateDiff, ControlNet a Auto Mask Workflow

Tento workflow ComfyUI představuje výkonný přístup k přestylizování videí, zaměřený na přeměnu postav do anime stylu při zachování původních pozadí. Tato transformace je podporována několika klíčovými komponentami, včetně AnimateDiff, ControlNet a Auto Mask.

AnimateDiff je navržen pro techniky diferenciální animace, umožňující udržení konzistentního kontextu v animacích. Tato komponenta se zaměřuje na vyhlazování přechodů a zlepšování plynulosti pohybu v přestylizovaném video obsahu.

ControlNet hraje klíčovou roli v přesné replikaci a manipulaci lidských póz. Využívá pokročilé odhady póz k přesnému zachycení a kontrole nuancí lidského pohybu, což usnadňuje transformaci postav do anime formy při zachování jejich původních póz.

Auto Mask se podílí na automatické segmentaci, která je schopná oddělit postavy od jejich pozadí. Tato technologie umožňuje selektivní přestylizování video prvků, zajišťující, že transformace postav se provádí bez změny okolního prostředí, čímž se zachovává integrita původních pozadí.

Tento workflow ComfyUI realizuje konverzi standardního video obsahu do stylizovaných animací, zaměřující se na efektivitu a kvalitu generování postav ve stylu anime.

2. Přehled AnimateDiff

2.1. Úvod do AnimateDiff

AnimateDiff se objevuje jako AI nástroj navržený k oživení statických obrázků a textových výzev do dynamických videí, využívající modely Stable Diffusion a specializovaný modul pohybu. Tato technologie automatizuje proces animace předpovídáním plynulých přechodů mezi snímky, což ji zpřístupňuje uživatelům bez programovacích dovedností nebo výpočetních zdrojů prostřednictvím bezplatné online platformy.

2.2. Klíčové vlastnosti AnimateDiff

2.2.1. Komplexní podpora modelů: AnimateDiff je kompatibilní s různými verzemi, včetně AnimateDiff v1, v2, v3 pro Stable Diffusion V1.5 a AnimateDiff sdxl pro Stable Diffusion SDXL. Umožňuje použití více modelů pohybu současně, což usnadňuje tvorbu složitých a vrstvených animací.

2.2.2. Velikost dávky kontextu určuje délku animace: AnimateDiff umožňuje tvorbu animací nekonečné délky prostřednictvím úpravy velikosti dávky kontextu. Tato funkce umožňuje uživatelům přizpůsobit délku a přechod animací tak, aby vyhovovaly jejich specifickým požadavkům, poskytujíc vysoce přizpůsobitelný animační proces.

2.2.3. Délka kontextu pro plynulé přechody: Účelem jednotné délky kontextu v AnimateDiff je zajištění plynulých přechodů mezi různými segmenty animace. Úpravou jednotné délky kontextu mohou uživatelé ovládat dynamiku přechodů mezi scénami—delší délky pro plynulejší, plynulé přechody a kratší délky pro rychlejší, výraznější změny.

2.2.4. Dynamika pohybu: V AnimateDiff v2 jsou k dispozici specializované LoRAs pohybu pro přidání filmových pohybů kamery do animací. Tato funkce přináší dynamickou vrstvu do animací, což výrazně zlepšuje jejich vizuální přitažlivost.

2.2.5. Pokročilé podpůrné funkce: AnimateDiff je navrženo k práci s různými nástroji včetně ControlNet, SparseCtrl a IPAdapter, nabízející významné výhody pro uživatele, kteří chtějí rozšířit kreativní možnosti svých projektů.

3. Přehled ControlNet

3.1. Úvod do ControlNet

ControlNet představuje rámec pro rozšíření modelů difúze obrazu pomocí podmíněných vstupů, s cílem zpřesnit a řídit proces syntézy obrazu. Dosahuje toho tím, že duplikuje bloky neuronové sítě v daném modelu difúze do dvou sad: jedna zůstává "uzamčená" pro zachování původní funkčnosti a druhá se stává "trénovatelnou", přizpůsobující se specifickým podmínkám. Tato dvojitá struktura umožňuje vývojářům začlenit různé podmíněné vstupy pomocí modelů jako OpenPose, Tile, IP-Adapter, Canny, Depth, LineArt, MLSD, Normal Map, Scribbles, Segmentation, Shuffle a T2I Adapter, čímž přímo ovlivňuje generovaný výstup. Prostřednictvím tohoto mechanismu nabízí ControlNet vývojářům mocný nástroj k řízení a manipulaci procesu generování obrazu, zvyšující flexibilitu modelu difúze a jeho použitelnost pro různé kreativní úkoly.

Předzpracovatelé a integrace modelů

3.1.1. Konfigurace předzpracování: Zahájení s ControlNet zahrnuje výběr vhodného předzpracovatele. Aktivace možnosti náhledu je doporučena pro vizuální pochopení dopadu předzpracování. Po předzpracování přechází workflow k využití předzpracovaného obrazu pro další kroky zpracování.

3.1.2. Přiřazení modelu: Zjednodušení procesu výběru modelu, ControlNet zajišťuje kompatibilitu tím, že sladí modely s jejich odpovídajícími předzpracovateli na základě společných klíčových slov, což usnadňuje proces integrace.

3.2. Klíčové vlastnosti ControlNet

Hloubkový průzkum modelů ControlNet

3.2.1. OpenPose Suite: Navrženo pro přesnou detekci lidských póz, OpenPose suite zahrnuje modely pro detekci tělových póz, výrazu obličeje a pohybů rukou s výjimečnou přesností. Různé OpenPose předzpracovatele jsou přizpůsobeny specifickým požadavkům na detekci, od základní analýzy póz po podrobné zachycení nuancí obličeje a rukou.

3.2.2. Model Tile Resample: Zlepšuje rozlišení a detaily obrazu, model Tile Resample je optimálně používán ve spojení s nástrojem pro zvětšování, s cílem obohatit kvalitu obrazu bez kompromisů na vizuální integritě.

3.2.3. Model IP-Adapter: Umožňuje inovativní využití obrazů jako výzev, IP-Adapter integruje vizuální prvky z referenčních obrazů do generovaných výstupů, spojující schopnosti difúze text-to-image pro obohacený vizuální obsah.

3.2.4. Detektor hran Canny: Ceněn pro své schopnosti detekce hran, model Canny zdůrazňuje strukturální podstatu obrazů, umožňující kreativní vizuální reinterpretace při zachování základních kompozic.

3.2.5. Modely vnímání hloubky: Prostřednictvím různých předzpracovatelů hloubky je ControlNet schopný odvodit a aplikovat hloubkové náznaky z obrazů, nabízející vrstvenou hloubkovou perspektivu v generovaných vizuálech.

3.2.6. Modely LineArt: Převádí obrazy do uměleckých kreslených čar pomocí předzpracovatelů LineArt, přizpůsobující se různým uměleckým preferencím od anime po realistické skici, ControlNet vyhovuje spektru stylistických přání.

3.2.7. Zpracování čmáranic: S předzpracovateli jako Scribble HED, Pidinet a xDoG, ControlNet transformuje obrazy do unikátního čmáranicového umění, nabízející různé styly pro detekci hran a umělecké reinterpretace.

3.2.8. Techniky segmentace: Schopnosti segmentace ControlNet přesně klasifikují prvky obrazu, umožňující přesnou manipulaci na základě kategorizace objektů, ideální pro složitou konstrukci scén.

3.2.9. Model Shuffle: Představuje metodu pro inovaci barevných schémat, model Shuffle náhodně mění vstupní obrazy k vytvoření nových barevných vzorů, kreativně měnící původní obraz při zachování jeho podstaty.

3.2.10. Inovace T2I Adapter: Modely T2I Adapter, včetně Color Grid a CLIP Vision Style, posouvají ControlNet do nových kreativních oblastí, míchající a přizpůsobující barvy a styly k vytvoření vizuálně přitažlivých výstupů, které respektují barevné schéma nebo stylistické atributy originálu.

3.2.11. MLSD (Mobile Line Segment Detection): Specializující se na detekci přímých linií, MLSD je neocenitelný pro projekty zaměřené na architektonický a interiérový design, upřednostňující strukturální jasnost a přesnost.

3.2.12. Zpracování normálních map: Využitím dat o orientaci povrchu, předzpracovatele normálních map replikují 3D strukturu referenčních obrazů, zlepšující realismus generovaného obsahu prostřednictvím detailní analýzy povrchu.

Více tutoriálů pro ComfyUI

Chcete více workflow pro ComfyUI?

RunComfy

© Autorská práva 2024 RunComfy. Všechna práva vyhrazena.

RunComfy je přední ComfyUI platforma, nabízející ComfyUI online prostředí a služby, spolu s workflow ComfyUI s úchvatnými vizuály.