FLUX ist ein neues Bildgenerierungsmodell, entwickelt von . Die FLUX-ControlNet-Depth und FLUX-ControlNet-Canny Modelle wurden vom XLabs AI Team erstellt. Dieser ComfyUI FLUX ControlNet Workflow wurde ebenfalls vom XLabs AI Team erstellt. Für weitere Details besuchen Sie bitte . Alle Anerkennung geht an deren Beitrag.
Die FLUX-Modelle sind auf RunComfy vorinstalliert, benannt flux/flux-schnell
und flux/flux-dev
.
flux-schnell, fp8
und Clip t5_xxl_fp8
, um Speicherproblemen vorzubeugen.flux-dev, default
und einen hohen Clip t5_xxl_fp16
.Für weitere Details besuchen Sie:
🌟Der folgende FLUX-ControlNet Workflow ist speziell für das Modell konzipiert.🌟
Wir präsentieren zwei herausragende FLUX-ControlNet Workflows: FLUX-ControlNet-Depth und FLUX-ControlNet-Canny, die jeweils einzigartige Fähigkeiten bieten, um Ihren kreativen Prozess zu verbessern.
Das FLUX-ControlNet Depth Modell wird zuerst mit dem "LoadFluxControlNet"-Knoten geladen. Wählen Sie das Modell "flux-depth-controlnet.safetensors" für optimale Tiefenkontrolle.
Verbinden Sie den Ausgang dieses Knotens mit dem "ApplyFluxControlNet"-Knoten. Verbinden Sie auch Ihr Tiefenbild mit dem Bildeingang dieses Knotens. Das Tiefenbild sollte ein Graustufenbild sein, bei dem nähere Objekte heller und entfernte Objekte dunkler sind, sodass FLUX-ControlNet die Tiefeninformation genau interpretieren kann.
Sie können die Tiefenkarte aus einem Eingabebild mit einem Tiefenschätzungsmodell generieren. Hier wird der "MiDaS-DepthMapPreprocessor"-Knoten verwendet, um das geladene Bild in eine für FLUX-ControlNet geeignete Tiefenkarte zu konvertieren. Wichtige Parameter:
Im "ApplyFluxControlNet"-Knoten bestimmt der Stärkeparameter, wie stark das generierte Bild durch die FLUX-ControlNet-Tiefenkonditionierung beeinflusst wird. Eine höhere Stärke lässt das Ergebnis näher an der Tiefenstruktur orientieren.
Der Prozess ist dem FLUX-ControlNet-Depth Workflow sehr ähnlich. Zuerst wird das FLUX-ControlNet Canny Modell mit "LoadFluxControlNet" geladen. Dann wird es mit dem "ApplyFluxControlNet"-Knoten verbunden.
Das Eingabebild wird mit dem "CannyEdgePreprocessor"-Knoten in eine Canny-Kantenkarte umgewandelt, was es für FLUX-ControlNet optimiert. Wichtige Parameter:
Die resultierende Canny-Kantenkarte wird mit dem "ApplyFluxControlNet"-Knoten verbunden. Auch hier verwenden Sie den Stärkeparameter, um zu steuern, wie stark die Kantenkarte die FLUX-ControlNet-Generierung beeinflusst.
In beiden FLUX-ControlNet Workflows wird der CLIP-kodierte Textprompt verbunden, um den Bildinhalt zu steuern, während die FLUX-ControlNet-Konditionierung die Struktur und Geometrie basierend auf der Tiefen- oder Kantenkarte kontrolliert.
Durch das Kombinieren verschiedener FLUX-ControlNets, Eingabemodalitäten wie Tiefe und Kanten und das Anpassen ihrer Stärke können Sie eine feinkörnige Kontrolle sowohl über den semantischen Inhalt als auch über die Struktur der von FLUX-ControlNet generierten Bilder erreichen.
Lizenz: controlnet.safetensors fällt unter die Nicht-kommerzielle Lizenz
Lizenzdateien anzeigen:
Das FLUX.1 [dev] Modell ist von Black Forest Labs. Inc. unter der FLUX.1 [dev] Nicht-kommerziellen Lizenz lizenziert. Urheberrecht Black Forest Labs. Inc.
IN KEINEM FALL HAFTET BLACK FOREST LABS, INC. FÜR IRGENDEINEN ANSPRUCH, SCHÄDEN ODER ANDERE HAFTUNG, OB IN EINER VERTRAGSKLAGE, TORT ODER ANDERWEITIG, DIE AUS DER VERWENDUNG DIESES MODELLS ENTSTEHEN.
© Urheberrecht 2024 RunComfy. Alle Rechte vorbehalten.