Der ComfyUI LayerDiffuse-Workflow integriert drei spezialisierte Sub-Workflows: die Erstellung transparenter Bilder, die Generierung des Hintergrunds aus dem Vordergrund und den umgekehrten Prozess der Generierung des Vordergrunds basierend auf dem vorhandenen Hintergrund. Jeder dieser LayerDiffuse-Sub-Workflows arbeitet unabhängig voneinander und bietet Ihnen die Flexibilität, die spezifische LayerDiffuse-Funktionalität auszuwählen und zu aktivieren, die Ihren kreativen Anforderungen entspricht.
Dieser Workflow ermöglicht die direkte Erstellung transparenter Bilder und bietet Ihnen die Flexibilität, Bilder mit oder ohne Angabe der Alpha-Kanal-Maske zu generieren.
Laden Sie für diesen LayerDiffuse-Workflow zunächst Ihr Vordergrundbild hoch und erstellen Sie einen beschreibenden Prompt. LayerDiffuse kombiniert dann diese Elemente, um das gewünschte Bild zu erzeugen. Beim Erstellen Ihres Prompts für LayerDiffuse ist es entscheidend, die gesamte Szene zu beschreiben (z. B. "ein am Straßenrand geparktes Auto") anstatt nur das Hintergrundelement zu beschreiben (z. B. "die Straße").
Diese LayerDiffuse-Funktionalität spiegelt den vorherigen Workflow wider und kehrt den Fokus um, mit dem Ziel, Vordergrundelemente mit einem vorhandenen Hintergrund zu verschmelzen. Daher müssen Sie das Hintergrundbild hochladen und das geplante Endbild in Ihrem Prompt beschreiben, wobei Sie die gesamte Szene (z. B. "ein Hund, der auf der Straße spazieren geht") gegenüber einzelnen Elementen (z. B. "der Hund") betonen.
Weitere LayerDiffuse-Workflows finden Sie auf
Während der Prozess der Erstellung transparenter Bilder robust ist und zuverlässig hochwertige Ergebnisse liefert, sind die Workflows zum Mischen von Hintergründen und Vordergründen eher experimentell. Sie erreichen möglicherweise nicht immer eine perfekte Mischung, was auf die innovative, aber sich entwickelnde Natur dieser Technologie hinweist.
LayerDiffuse ist ein innovativer Ansatz, der es großen vortrainierten latenten Diffusionsmodellen ermöglichen soll, Bilder mit Transparenz zu generieren. Diese Technik führt das Konzept der "latenten Transparenz" ein, bei dem die Transparenz des Alphakanals direkt in die latente Mannigfaltigkeit bestehender Modelle eincodiert wird. Dies ermöglicht die Erstellung transparenter Bilder oder mehrerer transparenter Ebenen, ohne die ursprüngliche latente Verteilung des vortrainierten Modells wesentlich zu verändern. Ziel ist es, die hohe Ausgabequalität dieser Modelle beizubehalten und gleichzeitig die Fähigkeit zur Erzeugung von Bildern mit Transparenz hinzuzufügen.
Um dies zu erreichen, verfeinert LayerDiffuse vortrainierte latente Diffusionsmodelle, indem es deren latenten Raum anpasst, um Transparenz als latenten Offset einzubeziehen. Dieser Prozess beinhaltet minimale Änderungen am Modell und bewahrt dessen ursprüngliche Qualitäten und Leistung. Das Training von LayerDiffuse nutzt einen Datensatz von 1 Million transparenten Bildebenenpaaren, die durch ein Human-in-the-Loop-Schema gesammelt wurden, um eine große Vielfalt an Transparenzeffekten zu gewährleisten.
Es hat sich gezeigt, dass die Methode an verschiedene Open-Source-Bildgeneratoren anpassbar ist und in verschiedene Systeme zur bedingten Steuerung integriert werden kann. Diese Vielseitigkeit ermöglicht eine Reihe von Anwendungen, wie z. B. die Erzeugung von Bildern mit vordergrund-/hintergrundspezifischer Transparenz, die Erstellung von Ebenen mit gemeinsamen Generierungsfähigkeiten und die Steuerung des strukturellen Inhalts der Ebenen.
© Urheberrecht 2024 RunComfy. Alle Rechte vorbehalten.