Die Knoten und der zugehörige Workflow wurden vollständig von Kijai entwickelt. Wir geben Kijai alle gebührende Anerkennung für diese innovative Arbeit. Auf der RunComfy-Plattform präsentieren wir lediglich die Beiträge von Kijai an die Community. Es ist wichtig zu beachten, dass es derzeit keine formelle Verbindung oder Partnerschaft zwischen RunComfy und Kijai gibt. Wir schätzen Kijai’s Arbeit sehr!
Tora führt ein neuartiges Framework zur Generierung hochwertiger Videos ein, indem es trajektorienbasierte Führung in einem Diffusions-Transformer-Modell nutzt. Durch den Fokus auf Bewegungstrajektorien erreicht Tora eine realistischere und zeitlich kohärente Videosynthese. Dieser Ansatz überbrückt die Lücke zwischen räumlich-zeitlicher Modellierung und generativen Diffusions-Frameworks.
Bitte beachten Sie, dass diese Version von Tora auf dem CogVideoX-5B Modell basiert und nur für akademische Forschungszwecke vorgesehen ist. Für Lizenzdetails, siehe .
Dies ist der CogVideoX Tora Workflow, linke Seite Knoten sind Eingaben, Mitte sind Verarbeitungsknoten von Tora, und rechte Seite sind die Ausgabeknoten.
[!CAUTION] Nur horizontale Formatbilder mit den Abmessungen - 720*480 funktionieren. Andere Abmessungen führen zu Fehlern.
Positiv
: Geben Sie die Aktionen ein, die basierend auf der im Trajektorienknoten definierten Trajektorie mit dem Subjekt stattfinden (bewegend, fließend...etc).Negativ
: Geben Sie ein, was Sie nicht passieren lassen wollen (Verzerrte Hände, verschwommen...etc)Hier legen Sie den Trajektorienpfad der Bewegung des Subjekts im hochgeladenen Foto fest.
points_to_sample
: Dies legt die Anzahl der Frames für das Rendering oder die Dauer Ihres Videos in Frames fest.mask_width
: Standard ist 720. NICHT ÄNDERN!mask_height
: Standard ist 480. NICHT ÄNDERN!Knotenführer:
Griffe Sichtbarkeit umschalten
Sampling_method:
Dies sind die Modell-Downloader-Knoten, die Modelle automatisch in Ihrem comfyui in 2-3 Minuten herunterladen.
Schritte
: Dieser Wert entscheidet über die Qualität Ihres Renders. Halten Sie zwischen 25 - 35 für den besten und effizientesten Wert.cfg
: Standardwert ist 6.0 für CogVideo Sampling.Denoising-Stärke
und Scheduler
: Ändern Sie dies nicht.Dieser Knoten setzt die Stärke Ihrer Bewegungstrajektorie.
Stärke
: Hoher Wert führt zu verzerrten Figuren oder fliegenden Punkten. Verwenden Sie zwischen 0.5 - 0.9.start_percent
: Verwenden Sie diesen Wert, um den Effekt der Bewegungsstärke zu erleichtern.end_percent
: - Hoher Wert führt zu verzerrten Figuren oder fliegenden Punkten. Verwenden Sie zwischen 0.3 - 0.7Diese Knoten geben Ihnen 3 Ausgaben.
"CogVideoX Tora: Trajektorienorientierter Diffusions-Transformer für die Videogenerierung" präsentiert einen innovativen Ansatz zur Videogenerierung, indem er trajektorienbasierte Führung innerhalb eines Diffusions-Transformer-Frameworks einführt. Anders als traditionelle Videosynthesemodelle, die Schwierigkeiten haben, zeitliche Konsistenz und realistische Bewegung aufrechtzuerhalten, konzentriert sich CogVideoX Tora explizit auf die Modellierung von Bewegungstrajektorien. Dies ermöglicht es dem System, kohärente und visuell überzeugende Videos zu erzeugen, indem es versteht, wie sich Objekte und Elemente im Laufe der Zeit entwickeln. Durch die Kombination der Leistungsfähigkeit von Diffusionsmodellen, bekannt für hochwertige Bildgenerierung, mit den zeitlichen Denkfähigkeiten von Transformern, überbrückt CogVideoX Tora die Lücke zwischen räumlicher und zeitlicher Modellierung.
CogVideoX Toras trajektorienorientierter Mechanismus bietet eine feinkörnige Kontrolle über Objektbewegungen und dynamische Interaktionen, was es besonders geeignet für Anwendungen macht, die präzise Bewegungsguidance erfordern, wie Videobearbeitung, Animation und Spezialeffekterzeugung. Die Fähigkeit des Modells, zeitliche Konsistenz und realistische Übergänge aufrechtzuerhalten, verbessert seine Anwendbarkeit bei der Erstellung von glattem und kohärentem Videoinhalt. Durch die Integration von Trajektorien-Prämissen verbessert CogVideoX Tora nicht nur Bewegungsdynamiken, sondern reduziert auch Artefakte, die häufig in framebasierter Generierung zu sehen sind. Dieser Durchbruch setzt einen neuen Maßstab für die Videosynthese und bietet ein leistungsstarkes Werkzeug für Kreative und Entwickler in Bereichen wie Filmproduktion, virtueller Realität und videobasierte KI.
© Urheberrecht 2024 RunComfy. Alle Rechte vorbehalten.