De ComfyUI LayerDiffuse workflow integreert drie gespecialiseerde sub-workflows: het creëren van transparante afbeeldingen, het genereren van een achtergrond vanuit de voorgrond, en het omgekeerde proces van het genereren van een voorgrond op basis van de bestaande achtergrond. Elk van deze LayerDiffuse sub-workflows werkt onafhankelijk, waardoor u de flexibiliteit heeft om de specifieke LayerDiffuse functionaliteit te kiezen en te activeren die aan uw creatieve behoeften voldoet.
Deze workflow maakt de directe creatie van transparante afbeeldingen mogelijk, waardoor u de flexibiliteit heeft om afbeeldingen te genereren met of zonder het specificeren van het alfakanaalmasker.
Voor deze LayerDiffuse workflow begint u met het uploaden van uw voorgrondafbeelding en het opstellen van een beschrijvende prompt. LayerDiffuse mengt vervolgens deze elementen om uw gewenste afbeelding te produceren. Bij het opstellen van uw prompt voor LayerDiffuse is het cruciaal om de volledige scène te beschrijven (bijv., "een auto geparkeerd aan de kant van de straat") in plaats van alleen het achtergrond element te beschrijven (bijv., "de straat").
In navolging van de vorige workflow richt deze LayerDiffuse functionaliteit zich op het samenvoegen van voorgrondelementen met een bestaande achtergrond. Daarom moet u de achtergrondafbeelding uploaden en de beoogde eindafbeelding in uw prompt beschrijven, waarbij de nadruk ligt op de volledige scène (bijv., "een hond die over de straat loopt") in plaats van individuele elementen (bijv., "de hond").
Voor meer LayerDiffuse workflows, bekijk het op github
Hoewel het proces van het creëren van transparante afbeeldingen robuust is en consequent resultaten van hoge kwaliteit oplevert, zijn de workflows voor het mengen van achtergronden en voorgronden meer experimenteel. Ze kunnen niet altijd een perfecte mix bereiken, wat indicatief is voor de innovatieve maar zich ontwikkelende aard van deze technologie.
LayerDiffuse is een innovatieve benadering die is ontworpen om grootschalige voorgetrainde latente diffusie modellen in staat te stellen afbeeldingen met transparantie te genereren. Deze techniek introduceert het concept van "latente transparantie," wat inhoudt dat alfakanaal transparantie direct wordt gecodeerd in het latente manifold van bestaande modellen. Dit maakt de creatie van transparante afbeeldingen of meerdere transparante lagen mogelijk zonder de oorspronkelijke latente distributie van het voorgetrainde model significant te veranderen. Het doel is om de output van hoge kwaliteit van deze modellen te behouden terwijl de mogelijkheid wordt toegevoegd om afbeeldingen met transparantie te genereren.
Om dit te bereiken, verfijnt LayerDiffuse voorgetrainde latente diffusie modellen door hun latente ruimte aan te passen om transparantie op te nemen als een latente offset. Dit proces brengt minimale veranderingen aan het model met zich mee, waardoor de oorspronkelijke kwaliteiten en prestaties behouden blijven. De training van LayerDiffuse maakt gebruik van een dataset van 1 miljoen transparante afbeeldingslaagparen, verzameld via een human-in-the-loop schema om een grote verscheidenheid aan transparantie-effecten te waarborgen.
De methode is aangepast aan verschillende open-source beeldgeneratoren en kan worden geïntegreerd in verschillende conditionele controlesystemen. Deze veelzijdigheid maakt een reeks toepassingen mogelijk, zoals het genereren van afbeeldingen met voorgrond/achtergrond-specifieke transparantie, het creëren van lagen met gezamenlijke generatiecapaciteiten, en het controleren van de structurele inhoud van de lagen.
© Copyright 2024 RunComfy. Alle Rechten Voorbehouden.