ComfyUI  >  Workflows  >  AnimateDiff + ControlNet + IPAdapter V1 | Japanischer Anime-Stil

AnimateDiff + ControlNet + IPAdapter V1 | Japanischer Anime-Stil

Erleben Sie den Nervenkitzel der Anime-Verwandlung, wenn ComfyUI die Kraft von AnimateDiff, ControlNet und IPAdapter nutzt, um normale Videos in faszinierende japanische Anime-Interpretationen zu verwandeln. Dieser Workflow setzt geschickt fortschrittliche Techniken wie Tiefenwahrnehmung, weiche Kantendetails und OpenPose-Technologie ein, zusammen mit Loras nuancierter Handschrift, um sicherzustellen, dass jedes Video mit authentischer Anime-Ästhetik neu interpretiert wird. Tauchen Sie nahtlos und stilvoll in das Anime-Universum ein.

ComfyUI Vid2Vid (Japanese Anime) Arbeitsablauf

Convert Video to Japanese Anime Style through AnimateDiff, ControlNet and IPAdapter in ComfyUI
Möchtest du diesen Workflow ausführen?
  • Voll funktionsfähige Workflows
  • Keine fehlenden Nodes oder Modelle
  • Keine manuelle Einrichtung erforderlich
  • Beeindruckende Visualisierungen

ComfyUI Vid2Vid (Japanese Anime) Beispiele

ComfyUI Vid2Vid (Japanese Anime) Beschreibung

Dieser Workflow ist von enigmatic_e inspiriert, mit einigen Modifikationen. Für weitere Informationen besuchen Sie bitte seinen YouTube-Kanal.

1. ComfyUI Workflow: AnimateDiff + ControlNet + IPAdapter | Japanischer Anime-Stil

Dieser Workflow ermöglicht es Ihnen, normale Videos mit AnimateDiff, ControlNet und IPAdapter in bezaubernde japanische Anime-Kreationen zu verwandeln. Experimentieren Sie mit verschiedenen Checkpoints, LoRA-Einstellungen und Referenzbildern für den IPAdapter, um Ihren einzigartigen Stil zu kreieren. Es ist eine unterhaltsame und kreative Art, Ihre Videos in der Anime-Welt zum Leben zu erwecken!

2. Überblick über AnimateDiff

Bitte lesen Sie die Details unter Wie man AnimateDiff in ComfyUI verwendet

3. Wie man ControlNet verwendet

3.1. ControlNet verstehen

ControlNet revolutioniert die Art und Weise, wie wir Bilder generieren, indem es eine neue Ebene der räumlichen Kontrolle in Text-zu-Bild-Diffusionsmodelle einbringt. Diese hochmoderne neuronale Netzwerkarchitektur arbeitet wunderbar mit Giganten wie Stable Diffusion zusammen und nutzt deren riesige Bibliotheken - geschmiedet aus Milliarden von Bildern -, um räumliche Nuancen direkt in das Gewebe der Bilderstellung einzuweben. Vom Skizzieren von Kanten bis hin zur Abbildung menschlicher Haltungen, Tiefenwahrnehmung oder Segmentierung von Bildern ermöglicht ControlNet, die Bildgestaltung in einer Weise zu formen, die weit über den Bereich reiner Textanweisungen hinausgeht.

3.2. Die Innovation von ControlNet

Im Kern ist ControlNet genial einfach. Es beginnt damit, die Integrität der ursprünglichen Modellparameter zu schützen und das Basistraining intakt zu halten. Dann führt ControlNet einen gespiegelten Satz der Kodierungsschichten des Modells ein, aber mit einer Besonderheit: Sie werden mit "Zero Convolutions" trainiert. Diese Nullen als Ausgangspunkt bedeuten, dass die Schichten sanft neue räumliche Bedingungen einfalten, ohne Unruhe zu verursachen, und so sicherstellen, dass die ursprünglichen Fähigkeiten des Modells erhalten bleiben, auch wenn es sich auf neue Lernpfade begibt.

3.3. ControlNets und T2I-Adapter verstehen

Sowohl ControlNets als auch T2I-Adapter spielen eine entscheidende Rolle bei der Konditionierung der Bilderzeugung, wobei jeder von ihnen unterschiedliche Vorteile bietet. T2I-Adapter sind für ihre Effizienz bekannt, insbesondere in Bezug auf die Beschleunigung des Bildgenerierungsprozesses. Trotzdem sind ControlNets unübertroffen in ihrer Fähigkeit, den Generierungsprozess detailliert zu steuern, was sie zu einem leistungsstarken Werkzeug für Kreative macht.

In Anbetracht der funktionalen Überschneidungen zwischen vielen T2I-Adapter- und ControlNet-Modellen wird sich unsere Diskussion hauptsächlich auf ControlNets konzentrieren. Es ist jedoch erwähnenswert, dass die RunComfy-Plattform zur einfacheren Nutzung mehrere T2I-Adapter-Modelle vorgeladen hat. Wenn Sie mit T2I-Adaptern experimentieren möchten, können Sie diese Modelle nahtlos laden und in Ihre Projekte integrieren.

Die Wahl zwischen ControlNet- und T2I-Adapter-Modellen in ComfyUI hat keinen Einfluss auf die Verwendung von ControlNet-Nodes oder die Konsistenz des Workflows. Diese Einheitlichkeit gewährleistet einen optimierten Prozess, der es Ihnen ermöglicht, die einzigartigen Vorteile jedes Modelltyps entsprechend Ihren Projektanforderungen zu nutzen.

3.4. Verwendung von ControlNet-Nodes

3.4.1. Laden des "Apply ControlNet"-Nodes

Zu Beginn müssen Sie den "Apply ControlNet"-Node in Ihr ComfyUI laden. Dies ist Ihr erster Schritt auf einer doppelt konditionierten Reise der Bilderstellung, die visuelle Elemente mit textuellen Prompts verbindet.

3.4.2. Die Eingänge des "Apply ControlNet"-Nodes verstehen

Positive und negative Konditionierung: Dies sind Ihre Werkzeuge, um das endgültige Bild zu formen - was es enthalten und was es vermeiden soll. Verbinden Sie diese mit den Slots "Positive prompt" und "Negative prompt", um sie mit dem textbasierten Teil Ihrer kreativen Anweisung zu synchronisieren.

Auswahl des ControlNet-Modells: Sie müssen diesen Eingang mit dem Ausgang des "Load ControlNet Model"-Nodes verbinden. Hier entscheiden Sie, ob Sie ein ControlNet- oder ein T2IAdaptor-Modell verwenden möchten, je nachdem, welche spezifischen Merkmale oder Stile Sie anstreben. Während wir uns auf ControlNet-Modelle konzentrieren, lohnt es sich, einige begehrte T2IAdaptors für einen umfassenden Überblick zu erwähnen.

Vorverarbeitung Ihres Bildes: Verbinden Sie Ihr Bild mit einem "ControlNet Preprocessor"-Node, der entscheidend dafür ist, dass Ihr Bild ControlNet-ready ist. Es ist wichtig, den Preprocessor auf Ihr ControlNet-Modell abzustimmen. Dieser Schritt passt Ihr Originalbild an die Anforderungen des Modells an - Größenänderung, Umfärben oder Anwenden notwendiger Filter -, um es für die Verwendung durch ControlNet vorzubereiten.

Apply ControlNet in ComfyUI

3.4.3. Die Ausgänge des "Apply ControlNet"-Nodes verstehen

Nach der Verarbeitung präsentiert der "Apply ControlNet"-Node zwei Ausgänge, die das komplexe Zusammenspiel von ControlNet und Ihrem kreativen Input widerspiegeln: Positive und negative Konditionierung. Diese Ausgänge steuern das Diffusionsmodell innerhalb von ComfyUI und führen zu Ihrer nächsten Wahl: Verfeinern Sie das Bild mit dem KSampler oder tauchen Sie tiefer ein, indem Sie weitere ControlNets für diejenigen stapeln, die unübertroffene Details und Anpassungen suchen.

Apply ControlNet in ComfyUI

3.4.4. "Apply ControlNet" für beste Ergebnisse optimieren

Stärke bestimmen: Diese Einstellung steuert, wie stark ControlNet das resultierende Bild beeinflusst. Ein volles 1.0 bedeutet, dass der Input von ControlNet die Zügel in der Hand hat, während das Herunterdrehen auf 0.0 dem Modell erlaubt, ohne den Einfluss von ControlNet zu laufen.

Startprozent anpassen: Dies gibt an, wann ControlNet während des Diffusionsprozesses mit eingreift. Zum Beispiel bedeutet ein Start von 20%, dass ControlNet ab einem Fünftel des Weges beginnt, seine Spuren zu hinterlassen.

Endprozent einstellen: Dies ist die Kehrseite des Startprozents und markiert, wann ControlNet sich verabschiedet. Wenn Sie es auf 80% einstellen, verblasst der Einfluss von ControlNet, wenn sich das Bild den letzten Stadien nähert, und bleibt in der letzten Strecke unberührt von ControlNet.

Apply ControlNet in ComfyUI

3.5. Leitfaden für ControlNet-Modelle: Openpose, Depth, SoftEdge, Canny, Lineart, Tile

3.5.1. ControlNet-Modell: Openpose

  • Openpose (auch als Openpose body bezeichnet): Dieses Modell dient als Grundlage von ControlNet zur Identifizierung von Schlüsselpunkten am menschlichen Körper, wie Augen, Nase, Hals, Schultern, Ellbogen, Handgelenke, Knie und Knöchel. Es eignet sich perfekt zur Nachbildung einfacher menschlicher Posen.
  • Openpose_face: Diese Version von Openpose geht einen Schritt weiter, indem sie Gesichtsschlüsselpunkte erkennt, was eine differenzierte Analyse von Gesichtsausdrücken und der Blickrichtung des Gesichts ermöglicht. Wenn sich Ihr Projekt auf Gesichtsausdrücke konzentriert, ist dieses Modell von entscheidender Bedeutung.
  • Openpose_hand: Diese Erweiterung des Openpose-Modells konzentriert sich auf die feinen Details von Hand- und Fingerbewegungen, was für ein detailliertes Verständnis von Handgesten und -positionierung entscheidend ist. Es erweitert den Anwendungsbereich von Openpose innerhalb von ControlNet.
  • Openpose_faceonly: Dieses Modell ist auf die Analyse von Gesichtsdetails zugeschnitten und überspringt die Schlüsselpunkte des Körpers, um sich ausschließlich auf Gesichtsausdrücke und -ausrichtung zu konzentrieren. Wenn es nur auf Gesichtsmerkmale ankommt, ist dies das richtige Modell.
  • Openpose_full: Dieses All-in-One-Modell integriert die Fähigkeiten von Openpose, Openpose_face und Openpose_hand zur Erkennung von Schlüsselpunkten an Körper, Gesicht und Händen, was es zur ersten Wahl für eine umfassende Analyse der menschlichen Pose innerhalb von ControlNet macht.
  • DW_Openpose_full: Aufbauend auf Openpose_full führt dieses Modell weitere Verbesserungen für eine überlegene Detailgenauigkeit und Präzision bei der Posenerkennung ein. Es ist die fortschrittlichste Version, die in der ControlNet-Suite verfügbar ist.

Zu den Preprocessor-Optionen gehören: Openpose oder DWpose

ControlNet Openpose in ComfyUI

3.5.2. ControlNet-Modell: Depth

Depth-Modelle verwenden ein 2D-Bild, um die Tiefe abzuleiten und sie als Graustufenkarte darzustellen. Jedes hat seine Stärken in Bezug auf Detailgenauigkeit oder Hintergrundkonzentration:

  • Depth Midas: Ein ausgewogener Ansatz zur Tiefenschätzung, Depth Midas bietet einen Mittelweg bei der Detaillierung und Hintergrunddarstellung.
  • Depth Leres: Legt den Schwerpunkt auf Details, erfasst aber dennoch Hintergrundelemente deutlicher.
  • Depth Leres++: Verschiebt die Grenzen für die Detailgenauigkeit der Tiefeninformation, was besonders für komplexe Szenen nützlich ist.
  • Zoe: Findet ein Gleichgewicht zwischen den Detailstufen der Midas- und Leres-Modelle.
  • Depth Anything: Ein verbessertes Modell für die vielseitige Tiefenschätzung in verschiedenen Szenarien.
  • Depth Hand Refiner: Verfeinert speziell die Details der Hände in Tiefenkarten, was für Szenen, in denen eine präzise Handplatzierung unerlässlich ist, von unschätzbarem Wert ist.

Zu den empfohlenen Preprocessoren gehören: Depth_Midas, Depth_Leres, Depth_Zoe, Depth_Anything, MeshGraphormer_Hand_Refiner. Dieses Modell zeichnet sich durch Robustheit und Kompatibilität mit tatsächlichen Tiefenkarten von Rendering-Engines aus.

ControlNet Depth in ComfyUI

3.5.3. ControlNet-Modell: SoftEdge

ControlNet Soft Edge ist darauf ausgelegt, Bilder mit weicheren Kanten zu erzeugen, die Details verbessern und gleichzeitig ein natürliches Aussehen bewahren. Es nutzt modernste neuronale Netze für eine verfeinerte Bildmanipulation und bietet umfangreiche kreative Kontrolle und nahtlose Integration.

In Bezug auf die Robustheit: SoftEdge_PIDI_safe > SoftEdge_HED_safe >> SoftEdge_PIDI > SoftEdge_HED

Für die höchste Ergebnisqualität: SoftEdge_HED > SoftEdge_PIDI > SoftEdge_HED_safe > SoftEdge_PIDI_safe

Als allgemeine Empfehlung ist SoftEdge_PIDI die erste Wahl, da es in der Regel hervorragende Ergebnisse liefert.

Zu den Preprocessoren gehören: SoftEdge_PIDI, SoftEdge_PIDI_safe, SoftEdge_HED, SoftEdge_HED_safe.

ControlNet Softedge in ComfyUI

3.5.4. ControlNet-Modell: Canny

Das Canny-Modell implementiert die Canny-Kantenerkennung, um ein breites Spektrum von Kanten innerhalb von Bildern hervorzuheben. Dieses Modell eignet sich hervorragend, um die Integrität von Strukturelementen zu erhalten und gleichzeitig das Gesamterscheinungsbild des Bildes zu vereinfachen, was bei der Erstellung von stilisierter Kunst oder der Vorbereitung von Bildern für die weitere Bearbeitung hilfreich ist.

Verfügbare Preprocessoren: Canny

ControlNet Canny in ComfyUI

3.5.5. ControlNet-Modell: Lineart

Lineart-Modelle sind Ihre Werkzeuge, um Bilder in stilisierte Strichzeichnungen zu verwandeln, die für eine Vielzahl von künstlerischen Anwendungen geeignet sind:

  • Lineart: Die Standardwahl, um Bilder in Strichzeichnungen zu verwandeln, bietet einen vielseitigen Ausgangspunkt für verschiedene künstlerische oder kreative Vorhaben.
  • Lineart anime: Zugeschnitten auf die Erstellung sauberer, präziser Strichzeichnungen im Anime-Stil, perfekt für Projekte, die einen vom Anime inspirierten Look anstreben.
  • Lineart realistic: Zielt darauf ab, eine lebensechte Darstellung in Strichzeichnungen zu erfassen und bietet mehr Details für Projekte, die Realismus erfordern.
  • Lineart coarse: Betont kühnere, auffälligere Linien für eine auffällige visuelle Wirkung, ideal für markante grafische Aussagen.

Verfügbare Preprocessoren können entweder detaillierte oder ausgeprägtere Lineart erzeugen (Lineart und Lineart_Coarse).

ControlNet Lineart in ComfyUI

3.5.6. ControlNet-Modell: Tile

Das Tile Resample-Modell zeichnet sich dadurch aus, dass es Details in Bildern hervorhebt. Es ist besonders effektiv, wenn es zusammen mit einem Upscaler verwendet wird, um die Bildauflösung und -details zu verbessern, und wird häufig angewendet, um Bildtexturen und -elemente zu schärfen und zu bereichern.

Empfohlener Preprocessor: Tile

ControlNet Tile in ComfyUI

3.6. Leitfaden zur Verwendung mehrerer ControlNets

Die Einbindung mehrerer ControlNets oder T2I-Adapter ermöglicht die sequenzielle Anwendung verschiedener Konditionierungsarten auf Ihren Bildgenerierungsprozess. Zum Beispiel können Sie Lineart- und OpenPose-ControlNets für eine verbesserte Detaillierung kombinieren.

Lineart für Objektformen: Beginnen Sie mit der Integration eines Lineart-ControlNets, um Objekten oder Elementen in Ihren Bildern Tiefe und Details zu verleihen. Dieser Prozess beinhaltet die Vorbereitung einer Lineart- oder Canny-Karte für die Objekte, die Sie einbeziehen möchten.

OpenPose für die Posenkontrolle: Nach der Lineart-Detaillierung nutzen Sie das OpenPose-ControlNet, um die Pose der Personen innerhalb Ihres Bildes zu bestimmen. Sie müssen eine OpenPose-Karte generieren oder erwerben, die die gewünschte Pose erfasst.

Sequenzielle Anwendung: Um diese Effekte effektiv zu kombinieren, verbinden Sie den Ausgang des Lineart-ControlNets mit dem OpenPose-ControlNet. Diese Methode stellt sicher, dass sowohl die Pose der Personen als auch die Formen der Objekte gleichzeitig während des Generierungsprozesses gesteuert werden, was zu einem Ergebnis führt, das harmonisch mit allen Eingabespezifikationen übereinstimmt.

Multiple ControlNet in ComfyUI

4. Überblick über IPAdapter

Bitte lesen Sie die Details unter Wie man IPAdapter in ComfyUI verwendet

Weitere ComfyUI Tutorials

Möchtest du mehr ComfyUI Workflows?

RunComfy

© Urheberrecht 2024 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen.