ComfyUI LayerDiffuse-arbeidsflyten integrerer tre spesialiserte underarbeidsflyter: opprettelse av gjennomsiktige bilder, generering av bakgrunn fra forgrunnen, og den omvendte prosessen med å generere forgrunn basert på eksisterende bakgrunn. Hver av disse LayerDiffuse-underarbeidsflytene opererer uavhengig, og gir deg fleksibiliteten til å velge og aktivere den spesifikke LayerDiffuse-funksjonaliteten som oppfyller dine kreative behov.
Denne arbeidsflyten muliggjør direkte opprettelse av gjennomsiktige bilder, og gir deg fleksibiliteten til å generere bilder med eller uten å spesifisere alpha-kanal masken.
For denne LayerDiffuse-arbeidsflyten, start med å laste opp ditt forgrunnsbilde og lage en beskrivende prompt. LayerDiffuse blander deretter disse elementene for å produsere det ønskede bildet. Når du utarbeider din prompt for LayerDiffuse, er det avgjørende å beskrive hele scenen (f.eks., "en bil parkert på siden av gaten") i stedet for bare å beskrive bakgrunnselementet (f.eks., "gaten").
Speilvendt den forrige arbeidsflyten, fokuserer denne LayerDiffuse-funksjonaliteten på å blande forgrunnselementer med en eksisterende bakgrunn. Derfor må du laste opp bakgrunnsbildet og beskrive det envisjonerte endelige bildet i din prompt, med vekt på hele scenen (f.eks., "en hund som går på gaten") over individuelle elementer (f.eks., "hunden").
For flere LayerDiffuse-arbeidsflyter, sjekk det på github
Mens prosessen med å opprette gjennomsiktige bilder er robust og pålitelig produserer resultater av høy kvalitet, er arbeidsflytene for å blande bakgrunner og forgrunner mer eksperimentelle. De oppnår kanskje ikke alltid en perfekt blanding, noe som indikerer den nyskapende, men utviklende naturen til denne teknologien.
LayerDiffuse er en innovativ tilnærming designet for å gjøre det mulig for store forhåndstrente latente diffusjonsmodeller å generere bilder med gjennomsiktighet. Denne teknikken introduserer konseptet "latent gjennomsiktighet," som innebærer å kode alpha-kanals gjennomsiktighet direkte inn i den latente manifolden til eksisterende modeller. Dette gjør det mulig å opprette gjennomsiktige bilder eller flere gjennomsiktige lag uten vesentlig å endre den opprinnelige latente distribusjonen til den forhåndstrente modellen. Målet er å opprettholde høy kvalitet på disse modellene samtidig som man legger til muligheten til å generere bilder med gjennomsiktighet.
For å oppnå dette, finjusterer LayerDiffuse forhåndstrente latente diffusjonsmodeller ved å justere deres latente rom for å inkludere gjennomsiktighet som et latent offset. Denne prosessen involverer minimale endringer i modellen, og bevarer dens opprinnelige kvaliteter og ytelse. Treningsprosessen til LayerDiffuse bruker et datasett på 1 million gjennomsiktige bildelagpar, samlet gjennom en menneske-i-løkken-ordning for å sikre et bredt utvalg av gjennomsiktighetseffekter.
Metoden har vist seg å være tilpasningsdyktig til ulike open-source bildegeneratorer og kan integreres i forskjellige betingede kontrollsystemer. Denne allsidigheten tillater en rekke applikasjoner, som generering av bilder med forgrunn/bakgrunn-spesifikk gjennomsiktighet, opprettelse av lag med felles genereringskapasiteter, og kontroll av det strukturelle innholdet i lagene.
© Opphavsrett 2024 RunComfy. Alle Rettigheter Forbeholdt.