ComfyUI  >  Workflows  >  MimicMotion | Menschliche Bewegungs-Videoerstellung

MimicMotion | Menschliche Bewegungs-Videoerstellung

Der ComfyUI MimicMotion-Workflow ist ein leistungsstarkes Werkzeug zur Erstellung realistischer menschlicher Bewegungs-Videos. Durch die Integration von MimicMotion, einer von Tencent und der Shanghai Jiao Tong University entwickelten Technologie, ermöglicht dieser Workflow die einfache Erstellung von detaillierten und flüssigen Bewegungs-Videos. Sie können einfach ein Referenzbild und eine Bewegungssequenz bereitstellen, die MimicMotion verwendet, um ein Video zu erstellen, das das Aussehen des Referenzbildes nachahmt.

ComfyUI MimicMotion Arbeitsablauf

ComfyUI MimicMotion Workflow
Möchtest du diesen Workflow ausführen?
  • Voll funktionsfähige Workflows
  • Keine fehlenden Nodes oder Modelle
  • Keine manuelle Einrichtung erforderlich
  • Beeindruckende Visualisierungen

ComfyUI MimicMotion Beispiele

ComfyUI MimicMotion Beschreibung

Was ist MimicMotion

MimicMotion ist ein steuerbares Videoerstellungs-Framework, das von Forschern bei Tencent und der Shanghai Jiao Tong University entwickelt wurde. Es kann hochwertige Videos beliebiger Länge erstellen, die einer vorgegebenen Bewegungsführung folgen. Im Vergleich zu früheren Methoden zeichnet sich MimicMotion durch die Erstellung von Videos mit reichhaltigen Details, guter zeitlicher Glätte und der Fähigkeit zur Erstellung langer Sequenzen aus.

Wie MimicMotion funktioniert

MimicMotion nimmt ein Referenzbild und eine Posenvorgabe als Eingaben. Es generiert dann ein Video, das dem Aussehen des Referenzbildes entspricht, während es der vorgegebenen Bewegungssequenz folgt.

Einige wichtige Innovationen ermöglichen die starke Leistung von MimicMotion:

  1. Konfidenzbewusste Posenvorgabe: Durch die Einbeziehung von Konfidenzinformationen der Pose erreicht MimicMotion eine bessere zeitliche Glätte und ist robuster gegenüber verrauschten Trainingsdaten. Dies hilft ihm, gut zu generalisieren.
  2. Regionale Verlustverstärkung: Durch die stärkere Fokussierung des Verlustes auf hochkonfidente Posenregionen, insbesondere die Hände, wird die Bildverzerrung in den generierten Videos erheblich reduziert.
  3. Progressive latente Fusion: Um glatte, lange Videos effizient zu generieren, erstellt MimicMotion Videosegmente mit überlappenden Frames und fusioniert ihre latenten Repräsentationen schrittweise. Dies ermöglicht die Erstellung von Videos beliebiger Länge mit kontrollierten Rechenkosten.

Das Modell wird zunächst auf großen Videodatensätzen vortrainiert und dann für die Bewegungs-Nachahmungsaufgabe feinabgestimmt. Diese effiziente Trainingspipeline erfordert keine riesigen Mengen an spezialisierten Daten.

Wie man ComfyUI MimicMotion verwendet (ComfyUI-MimicMotionWrapper)

Nach dem Testen verschiedener MimicMotion-Knoten in ComfyUI empfehlen wir die Verwendung von für die besten Ergebnisse.

Schritt 1: Vorbereitung Ihrer Eingabe für MimicMotion

Um mit ComfyUI MimicMotion zu animieren, benötigen Sie zwei wichtige Zutaten:

  • Ein Referenzbild: Dies ist der Ausgangspunkt für Ihre Animation. Wählen Sie ein Bild, das das Motiv, das Sie animieren möchten, klar darstellt.
  • Posenbilder: Dies sind die Bilder, die die Bewegungssequenz definieren. Jedes Posenbild sollte die gewünschte Position oder Pose Ihres Motivs zu einem bestimmten Zeitpunkt in der Animation zeigen. Sie können diese Posenbilder manuell erstellen oder Pose-Schätzungswerkzeuge verwenden, um Posen aus einem Video zu extrahieren.

🌟Stellen Sie sicher, dass Ihr Referenzbild und Ihre Posenbilder die gleiche Auflösung und das gleiche Seitenverhältnis haben, um optimale Ergebnisse zu erzielen.🌟

Schritt 2: Laden des MimicMotion-Modells

ComfyUI MimicMotion benötigt das MimicMotion-Modell, um ordnungsgemäß zu funktionieren. In RunComfy ist das Modell bereits für Ihre Bequemlichkeit vorinstalliert. Um den "DownLoadMimicMotionModel"-Knoten zu konfigurieren, folgen Sie diesen Schritten:

  • Setzen Sie den "model"-Parameter auf "MimicMotion-fp16.safetensors" (oder den entsprechenden Modell-Dateinamen, falls abweichend).
  • Wählen Sie die gewünschte Präzision (fp32, fp16 oder bf16) basierend auf den Fähigkeiten Ihrer GPU. Diese Wahl kann die Leistung und Kompatibilität beeinflussen.
  • Lassen Sie den "lcm"-Parameter auf False gesetzt, es sei denn, Sie möchten speziell die LCM (Latent Conditional Motion) Variante des Modells verwenden.

Nachdem Sie die Knoteneinstellungen konfiguriert haben, verbinden Sie den Ausgang des "DownloadAndLoadMimicMotionModel"-Knotens mit dem Eingang des nächsten Knotens in Ihrem Workflow. Dies stellt sicher, dass das geladene MimicMotion-Modell in den folgenden Schritten Ihrer ComfyUI-Pipeline ordnungsgemäß genutzt wird.

DownLoadMimicMotionModel

Schritt 3: Konfigurieren des MimicMotion-Samplers

Der "MimicMotionSampler"-Knoten ist verantwortlich für die Erstellung der animierten Frames basierend auf Ihrer Eingabe. Hier ist, wie Sie ihn einrichten:

  • Fügen Sie den "MimicMotionSampler"-Knoten hinzu und verbinden Sie ihn mit dem Ausgang des "DownloadAndLoadMimicMotionModel"-Knotens.
  • Setzen Sie den "ref_image"-Parameter auf Ihr Referenzbild und den "pose_images"-Parameter auf Ihre Sequenz von Posenbildern.
  • Passen Sie die Sampling-Einstellungen nach Ihren Vorlieben an:
    • "steps" bestimmt die Anzahl der Diffusionsschritte (höhere Werte führen zu glatteren Ergebnissen, aber längeren Verarbeitungszeiten).
    • "cfg_min" und "cfg_max" steuern die Stärke der bedingten Führung (höhere Werte halten sich enger an die Posenbilder).
    • "seed" setzt den Zufallswert für die Reproduzierbarkeit.
    • "fps" gibt die Bilder pro Sekunde der generierten Animation an.
    • Feinabstimmung zusätzlicher Parameter wie "noise_aug_strength", "context_size" und "context_overlap", um mit verschiedenen Stilen und zeitlicher Kohärenz zu experimentieren.
MimicMotionSampler

Schritt 4: Decodieren der latenten Samples

Der "MimicMotionSampler"-Knoten gibt latente Raumdarstellungen der animierten Frames aus. Um diese Latenten in tatsächliche Bilder umzuwandeln, müssen Sie den "MimicMotionDecode"-Knoten verwenden:

  • Fügen Sie den "MimicMotionDecode"-Knoten hinzu und verbinden Sie ihn mit dem Ausgang des "MimicMotionSampler"-Knotens.
  • Setzen Sie den "decode_chunk_size"-Parameter, um die Anzahl der gleichzeitig decodierten Frames zu steuern (höhere Werte können mehr GPU-Speicher verbrauchen). Der Ausgang des "MimicMotionDecode"-Knotens sind die endgültigen animierten Frames im Bildformat.

Schritt 5: Verbesserung der Posen mit MimicMotionGetPoses

Wenn Sie die extrahierten Posen zusammen mit Ihrem Referenzbild visualisieren möchten, können Sie den "MimicMotionGetPoses"-Knoten verwenden:

  • Verbinden Sie das "ref_image" und die "pose_images" mit dem "MimicMotionGetPoses"-Knoten.
  • Setzen Sie die Parameter "include_body", "include_hand" und "include_face", um zu steuern, welche Pose-Schlüsselpunkte angezeigt werden. Der Ausgang wird das Referenzbild mit der extrahierten Pose und den einzelnen Posenbildern umfassen.
MimicMotionGetPoses

Tipps und Best Practices

Hier sind einige Tipps, die Ihnen helfen, das Beste aus ComfyUI MimicMotion herauszuholen:

  • Experimentieren Sie mit verschiedenen Referenzbildern und Posensequenzen, um eine Vielzahl von Animationen zu erstellen.
  • Passen Sie die Sampling-Einstellungen an, um Qualität und Verarbeitungszeit je nach Bedarf auszubalancieren.
  • Verwenden Sie hochwertige, konsistente Posenbilder für die besten Ergebnisse. Vermeiden Sie drastische Änderungen in der Perspektive oder Beleuchtung zwischen den Posen.
  • Überwachen Sie Ihren GPU-Speicherverbrauch, insbesondere bei der Arbeit mit hochauflösenden Bildern oder langen Animationen.
  • Nutzen Sie den "DiffusersScheduler"-Knoten, um das Rauschzeitplanen für einzigartige Effekte anzupassen.

ComfyUI MimicMotion ist ein leistungsstarkes und vielseitiges Werkzeug, mit dem Sie mühelos atemberaubende Animationen erstellen können. Indem Sie den Workflow verstehen und die verschiedenen Parameter erkunden, können Sie jeden animieren. Während Sie in die Welt der Animation eintauchen, denken Sie daran, zu experimentieren, zu iterieren und Spaß am Prozess zu haben. Mit ComfyUI MimicMotion sind die Möglichkeiten endlos, also genießen Sie es, Ihre kreativen Visionen zum Leben zu erwecken!

Möchtest du mehr ComfyUI Workflows?

RunComfy

© Urheberrecht 2024 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen.