Die Knoten und der zugehörige Workflow wurden vollständig von logtd und Kijai entwickelt. Wir geben logtd und Kijai alle Anerkennung für diese innovative Arbeit. Auf der RunComfy-Plattform präsentieren wir lediglich ihre Beiträge an die Community. Wir schätzen die Arbeit von logtd und Kijai sehr!
Der Mochi Edit Workflow ist ein Werkzeug, das es Benutzern ermöglicht, Videoinhalte mit textbasierten Prompts zu modifizieren. Es unterstützt Aufgaben wie das Hinzufügen oder Ändern von Elementen (z.B. das Platzieren von Hüten auf Charakteren), das Anpassen des Gesamtstils oder das Ersetzen von Subjekten im Filmmaterial.
Im Kern von Mochi Edit liegt die Unsampling-Technik. Mochi Edit's Unsampling-Technik nutzt einen vereinfachten Ansatz zur Bearbeitung von Videos und Bildern, der Transformationen durch multi-modale Prompts ermöglicht, ohne dass zusätzliche Vorverarbeitungsschritte oder externe Netzwerkmodule erforderlich sind. Die Kernidee hinter Mochi Edit's Unsampling besteht darin, die latente Darstellung des Videos direkt zu manipulieren, anstatt komplexe Operationen wie Gesichtserkennung oder Posenabschätzung durchzuführen, die in traditionellen Bildgenerierungspipelines üblich sind. Diese Methode ist auf das übergeordnete Ziel ausgerichtet, einen flexibleren und schlankeren Prozess zur Bildgenerierung zu schaffen, ähnlich wie GPT Text aus jedem Eingabeprompt generieren kann. Mit der Unsampling-Technik von Mochi Edit können Benutzer verschiedene Stile und Modifikationen direkt aus einer multi-modalen Beschreibung generieren, was den Prozess weitaus intuitiver und effizienter macht.
Kurz gesagt, Mochi Edit ermöglicht es Ihnen, kleine Variationen des hochgeladenen Videos zu erstellen. Wie das Kopieren und Übersetzen der Bewegung des Subjekts auf ein anderes Subjekt oder das Ändern der Hintergrundeinstellungen, das Ändern der Eigenschaften des Subjekts usw.
In diesem Workflow sind die linken grünen Knoten die Eingaben für Video und Text, die mittleren lila Knoten sind die Mochi Unsampler und Sampler Knoten, und rechts blau ist der Videoausgabeknoten.
frame_load_cap
: ist standardmäßig auf 32 Frames gesetzt. Über 32 Frames werden Springartefakte beobachtet. Halten Sie unter 3 Sekunden (32) Frames für beste Ergebnisse.skip_frames
: Überspringen Sie Frames, wenn Sie von einem bestimmten Frame aus starten möchten.Verwenden Sie das quadratische Format (512 x 512) oder das horizontale (848 x 480) Format im Upscale-Knoten. Andere führen zu Fehlern.
Dies ist ein experimenteller Gebrauch, manchmal kann es funktionieren oder manchmal nicht oder manchmal das Originalvideo vollständig verändern.
Die Sampling und Unsampling Ksampler sind vom Autor auf die besten Einstellungen gesetzt. Wenn die Einstellungen vage bearbeitet werden, können seltsame, unerwünschte Ergebnisse entstehen. Experimentieren Sie mit:
Seed
für Variationennum_steps
und linear_step
, um die Rendering-Qualität oder Geschwindigkeit zu ändern.eta
, start_step
und end_Step
, um die Unsampling-Stärke, den Start- und Endprozentsatz zu ändern.Modelle werden automatisch aus diesem in Ihr ComfyUI heruntergeladen. Es dauert etwa 5-10 Minuten, um das 10,3-GB-Modell beim ersten Mal herunterzuladen.
Mochi Edit's Unsampling-Technik revolutioniert die Video- und Bildbearbeitung, indem sie den Prozess vereinfacht und die Notwendigkeit für komplexe Vorverarbeitung oder zusätzliche Module beseitigt. Dieser innovative Ansatz ermöglicht es Benutzern, mühelos hochwertige, maßgeschneiderte Visuals durch multi-modale Prompts zu erzeugen. Durch die Kombination von Flexibilität und Zugänglichkeit ebnet Mochi Edit den Weg für eine intuitivere und kreativere Zukunft der Bildgenerierung.
© Urheberrecht 2024 RunComfy. Alle Rechte vorbehalten.