Updated: 5/17/2024
Ciao, colleghi artisti dell'IA! 👋 Benvenuti nel nostro tutorial adatto ai principianti su ComfyUI, uno strumento incredibilmente potente e flessibile per creare splendide opere d'arte generate dall'IA. 🎨 In questa guida, ti guideremo attraverso le basi di ComfyUI, esploreremo le sue funzionalità e ti aiuteremo a sbloccare il suo potenziale per portare la tua arte IA a un nuovo livello. 🚀
Trattaremo:
ComfyUI è come avere una bacchetta magica 🪄 per creare senza sforzo splendide opere d'arte generate dall'IA. Nel suo nucleo, ComfyUI è un'interfaccia utente grafica (GUI) basata su nodi costruita sopra Stable Diffusion, un modello di apprendimento profondo all'avanguardia che genera immagini da descrizioni testuali. 🌟 Ma ciò che rende ComfyUI davvero speciale è il modo in cui permette agli artisti come te di liberare la tua creatività e dare vita alle tue idee più folli.
Immagina una tela digitale dove puoi costruire i tuoi flussi di lavoro unici per la generazione di immagini connettendo diversi nodi, ognuno dei quali rappresenta una funzione o un'operazione specifica. 🧩 È come costruire una ricetta visiva per i tuoi capolavori generati dall'IA!
Vuoi generare un'immagine da zero utilizzando un prompt testuale? C'è un nodo per questo! Vuoi applicare un sampler specifico o perfezionare il livello di rumore? Aggiungi semplicemente i nodi corrispondenti e guarda la magia accadere. ✨
Ma ecco la parte migliore: ComfyUI suddivide il flusso di lavoro in elementi riorganizzabili, dandoti la libertà di creare i tuoi flussi di lavoro personalizzati su misura per la tua visione artistica. 🖼️ È come avere un toolkit personalizzato che si adatta al tuo processo creativo.
AUTOMATIC1111 è la GUI predefinita per Stable Diffusion. Quindi, dovresti usare ComfyUI invece? Confrontiamole:
✅ Vantaggi dell'utilizzo di ComfyUI:
❌ Svantaggi dell'utilizzo di ComfyUI:
Crediamo che il modo migliore per imparare ComfyUI sia tuffarsi negli esempi e sperimentarlo in prima persona. 🙌 Ecco perché abbiamo creato questo tutorial unico che si distingue dagli altri. In questo tutorial, troverai una guida dettagliata passo dopo passo che puoi seguire.
Ma ecco la parte migliore: 🌟 Abbiamo integrato ComfyUI direttamente in questa pagina web! Sarai in grado di interagire con gli esempi di ComfyUI in tempo reale man mano che procedi nella guida.🌟 Tuffiamoci!
Iniziamo con il caso più semplice: generare un'immagine da testo. Fai clic su Queue Prompt per eseguire il flusso di lavoro. Dopo una breve attesa, dovresti vedere la tua prima immagine generata! Per controllare la tua coda, fai clic su View Queue.
Ecco un flusso di lavoro predefinito da testo a immagine da provare:
Il flusso di lavoro ComfyUI è composto da due elementi costitutivi di base: Nodi e Bordi.
Per prima cosa, seleziona un modello Stable Diffusion Checkpoint nel nodo Load Checkpoint. Fai clic sul nome del modello per visualizzare i modelli disponibili. Se facendo clic sul nome del modello non accade nulla, potresti dover caricare un modello personalizzato.
Vedrai due nodi etichettati CLIP Text Encode (Prompt). Il prompt in alto è collegato all'input positivo del nodo KSampler, mentre il prompt in basso è collegato all'input negativo. Quindi inserisci il tuo prompt positivo in quello in alto e il tuo prompt negativo in quello in basso.
Il nodo CLIP Text Encode converte il prompt in token e li codifica in embedding utilizzando il text encoder.
💡 Suggerimento: Usa la sintassi (parola chiave:peso) per controllare il peso di una parola chiave, ad esempio, (parola chiave:1.2) per aumentare il suo effetto o (parola chiave:0.8) per diminuirlo.
Fai clic su Queue Prompt per eseguire il flusso di lavoro. Dopo una breve attesa, la tua prima immagine verrà generata!
Il potere di ComfyUI risiede nella sua configurabilità. Comprendere cosa fa ogni nodo ti permette di adattarli alle tue esigenze. Ma prima di entrare nei dettagli, diamo un'occhiata al processo di Stable Diffusion per capire meglio come funziona ComfyUI.
Il processo di Stable Diffusion può essere riassunto in tre passaggi principali:
Ora che abbiamo una comprensione generale del processo di Stable Diffusion, immergiamoci nei componenti e nei nodi chiave di ComfyUI che rendono possibile questo processo.
Il nodo Load Checkpoint in ComfyUI è cruciale per selezionare un modello Stable Diffusion. Un modello Stable Diffusion è composto da tre componenti principali: MODEL, CLIP e VAE. Esploriamo ogni componente e la sua relazione con i nodi corrispondenti in ComfyUI.
È importante notare che il VAE è un componente separato dal modello di linguaggio CLIP. Mentre CLIP si concentra sull'elaborazione dei prompt testuali, il VAE si occupa della conversione tra spazio dei pixel e spazio latente.
Il nodo CLIP Text Encode in ComfyUI è responsabile di prendere i prompt forniti dall'utente e inserirli nel modello di linguaggio CLIP. CLIP è un potente modello di linguaggio che comprende il significato semantico delle parole e può associarle a concetti visivi. Quando un prompt viene inserito nel nodo CLIP Text Encode, subisce un processo di trasformazione in cui ogni parola viene convertita in embedding. Questi embedding sono vettori ad alta dimensione che catturano le informazioni semantiche delle parole. Trasformando i prompt in embedding, CLIP consente al MODEL di generare immagini che riflettono accuratamente il significato e l'intento dei prompt dati.
Nel processo da testo a immagine, la generazione inizia con un'immagine casuale nello spazio latente. Questa immagine casuale funge da stato iniziale con cui il MODEL può lavorare. La dimensione dell'immagine latente è proporzionale alla dimensione effettiva dell'immagine nello spazio dei pixel. In ComfyUI, puoi regolare l'altezza e la larghezza dell'immagine latente per controllare la dimensione dell'immagine generata. Inoltre, puoi impostare la dimensione del batch per determinare il numero di immagini generate in ogni esecuzione.
Le dimensioni ottimali per le immagini latenti dipendono dallo specifico modello Stable Diffusion utilizzato. Per i modelli SD v1.5, le dimensioni consigliate sono 512x512 o 768x768, mentre per i modelli SDXL, la dimensione ottimale è 1024x1024. ComfyUI fornisce una gamma di rapporti di aspetto comuni tra cui scegliere, come 1:1 (quadrato), 3:2 (orizzontale), 2:3 (verticale), 4:3 (orizzontale), 3:4 (verticale), 16:9 (widescreen) e 9:16 (verticale). È importante notare che la larghezza e l'altezza dell'immagine latente devono essere divisibili per 8 per garantire la compatibilità con l'architettura del modello.
Il VAE (Variational AutoEncoder) è un componente cruciale nel modello Stable Diffusion che gestisce la conversione delle immagini tra lo spazio dei pixel e lo spazio latente. È composto da due parti principali: un Image Encoder e un Image Decoder.
L'Image Encoder prende un'immagine nello spazio dei pixel e la comprime in una rappresentazione latente a dimensioni inferiori. Questo processo di compressione riduce significativamente la dimensione dei dati, consentendo un'elaborazione e un'archiviazione più efficienti. Ad esempio, un'immagine di dimensioni 512x512 pixel può essere compressa fino a una rappresentazione latente di dimensioni 64x64.
D'altra parte, l'Image Decoder, noto anche come VAE Decoder, è responsabile della ricostruzione dell'immagine dalla rappresentazione latente nello spazio dei pixel. Prende la rappresentazione latente compressa e la espande per generare l'immagine finale.
L'utilizzo di un VAE offre diversi vantaggi:
Tuttavia, ci sono anche alcuni svantaggi da considerare:
Nonostante queste limitazioni, il VAE svolge un ruolo vitale nel modello Stable Diffusion consentendo un'efficiente conversione tra lo spazio dei pixel e lo spazio latente, facilitando una generazione più veloce e un controllo più preciso sulle immagini generate.
Il nodo KSampler in ComfyUI è il cuore del processo di generazione delle immagini in Stable Diffusion. È responsabile del denoising dell'immagine casuale nello spazio latente per farla corrispondere al prompt fornito dall'utente. Il KSampler impiega una tecnica chiamata diffusione inversa, in cui raffina iterativamente la rappresentazione latente rimuovendo il rumore e aggiungendo dettagli significativi sulla base della guida dagli embedding CLIP.
Il nodo KSampler offre diversi parametri che consentono agli utenti di perfezionare il processo di generazione delle immagini:
Seed: il valore del seed controlla il rumore iniziale e la composizione dell'immagine finale. Impostando un seed specifico, gli utenti possono ottenere risultati riproducibili e mantenere la coerenza tra più generazioni.
Control_after_generation: questo parametro determina come cambia il valore del seed dopo ogni generazione. Può essere impostato su randomize (genera un nuovo seed casuale per ogni esecuzione), increment (aumenta il valore del seed di 1), decrement (diminuisce il valore del seed di 1) o fixed (mantiene costante il valore del seed).
Step: il numero di passaggi di campionamento determina l'intensità del processo di raffinamento. Valori più alti comportano meno artefatti e immagini più dettagliate, ma aumentano anche il tempo di generazione.
Sampler_name: questo parametro consente agli utenti di scegliere lo specifico algoritmo di campionamento utilizzato dal KSampler. Diversi algoritmi di campionamento possono fornire risultati leggermente diversi e avere velocità di generazione variabili.
Scheduler: lo scheduler controlla come cambia il livello di rumore a ogni passaggio del processo di denoising. Determina la velocità con cui il rumore viene rimosso dalla rappresentazione latente.
Denoise: il parametro denoise imposta la quantità di rumore iniziale che dovrebbe essere cancellata dal processo di denoising. Un valore di 1 significa che tutto il rumore verrà rimosso, risultando in un'immagine pulita e dettagliata.
Regolando questi parametri, puoi ottimizzare il processo di generazione delle immagini per ottenere i risultati desiderati.
A RunComfy, abbiamo creato l'esperienza online ComfyUI definitiva appositamente per te. Dì addio alle installazioni complicate! 🎉 Prova subito ComfyUI Online e libera il tuo potenziale artistico come mai prima d'ora! 🎉
Il flusso di lavoro da immagine a immagine genera un'immagine basata su un prompt e un'immagine di input. Provalo tu stesso!
Per utilizzare il flusso di lavoro da immagine a immagine:
Per ulteriori flussi di lavoro ComfyUI premium, visita la nostra 🌟Lista dei flussi di lavoro ComfyUI🌟
Grazie alla sua estrema configurabilità, ComfyUI è una delle prime GUI a supportare il modello Stable Diffusion XL. Proviamolo!
Per utilizzare il flusso di lavoro ComfyUI SDXL:
Immergiamoci in qualcosa di più complesso: l'inpainting! Quando hai un'immagine fantastica ma vuoi modificare parti specifiche, l'inpainting è il metodo migliore. Provalo qui!
Per utilizzare il flusso di lavoro di inpainting:
L'outpainting è un'altra tecnica entusiasmante che ti permette di espandere le tue immagini oltre i loro confini originali. 🌆 È come avere una tela infinita con cui lavorare!
Per utilizzare il flusso di lavoro di outpainting di ComfyUI:
Per ulteriori flussi di lavoro di inpainting/outpainting premium, visita la nostra 🌟Lista dei flussi di lavoro ComfyUI🌟
Procediamo con l'esplorazione dell'upscale di ComfyUI. Introdurremo tre flussi di lavoro fondamentali per aiutarti a eseguire l'upscale in modo efficiente.
Ci sono due metodi principali per l'upscale:
Due modi per ottenerlo:
Un altro metodo di upscale è l'Upscale Latent, noto anche come Hi-res Latent Fix Upscale, che esegue l'upscale direttamente nello spazio latente.
Per ulteriori flussi di lavoro di restore/upscale premium, visita la nostra 🌟Lista dei flussi di lavoro ComfyUI🌟
Preparati a portare la tua arte AI a un livello superiore con ControlNet, una tecnologia rivoluzionaria che rivoluziona la generazione di immagini!
ControlNet è come una bacchetta magica 🪄 che ti concede un controllo senza precedenti sulle tue immagini generate dall'AI. Lavora fianco a fianco con potenti modelli come Stable Diffusion, migliorando le loro capacità e permettendoti di guidare il processo di creazione delle immagini come mai prima d'ora!
Immagina di poter specificare i bordi, le pose umane, la profondità o addirittura le mappe di segmentazione dell'immagine desiderata. 🌠 Con ControlNet, puoi farlo!
Se sei desideroso di immergerti più a fondo nel mondo di ControlNet e di sfruttarne appieno le potenzialità, ti abbiamo coperto. Dai un'occhiata al nostro tutorial dettagliato su padroneggiare ControlNet in ComfyUI! 📚 È ricco di guide passo passo ed esempi stimolanti per aiutarti a diventare un professionista di ControlNet. 🏆
ComfyUI Manager è un nodo personalizzato che ti consente di installare e aggiornare altri nodi personalizzati attraverso l'interfaccia di ComfyUI. Troverai il pulsante Manager nel menu Queue Prompt.
Se un flusso di lavoro richiede nodi personalizzati che non hai installato, segui questi passaggi:
Fai doppio clic su un'area vuota per visualizzare un menu per cercare i nodi.
Gli embedding, noti anche come textual inversion, sono una potente funzionalità di ComfyUI che ti consente di iniettare concetti o stili personalizzati nelle tue immagini generate dall'AI. 💡 È come insegnare all'AI una nuova parola o frase e associarla a caratteristiche visive specifiche.
Per utilizzare gli embedding in ComfyUI, digita semplicemente "embedding:" seguito dal nome del tuo embedding nella casella del prompt positivo o negativo. Ad esempio:
embedding: BadDream
Quando utilizzi questo prompt, ComfyUI cercherà un file di embedding denominato "BadDream" nella cartella ComfyUI > modelli > embedding. 📂 Se trova una corrispondenza, applicherà le caratteristiche visive corrispondenti all'immagine generata.
Gli embedding sono un ottimo modo per personalizzare la tua arte AI e ottenere stili o estetiche specifiche. 🎨 Puoi creare i tuoi embedding addestrandoli su un set di immagini che rappresentano il concetto o lo stile desiderato.
Ricordare i nomi esatti dei tuoi embedding può essere una seccatura, soprattutto se ne hai una vasta collezione. 😅 È qui che il nodo personalizzato ComfyUI-Custom-Scripts viene in soccorso!
Per abilitare l'autocompletamento dei nomi degli embedding:
Una volta installato il nodo ComfyUI-Custom-Scripts, sperimenterai un modo più intuitivo di utilizzare gli embedding. 😊 Inizia semplicemente a digitare "embedding:" in una casella di prompt e apparirà un elenco di embedding disponibili. Puoi quindi selezionare l'embedding desiderato dall'elenco, risparmiando tempo e fatica!
Sapevi che puoi controllare la forza dei tuoi embedding? 💪 Poiché gli embedding sono essenzialmente parole chiave, puoi applicare pesi ad essi proprio come faresti con le parole chiave regolari nei tuoi prompt.
Per regolare il peso di un embedding, utilizza la seguente sintassi:
(embedding: BadDream:1.2)
In questo esempio, il peso dell'embedding "BadDream" viene aumentato del 20%. Quindi pesi più alti (ad esempio, 1.2) renderanno l'embedding più prominente, mentre pesi più bassi (ad esempio, 0.8) ridurranno la sua influenza. 🎚️ Questo ti dà ancora più controllo sul risultato finale!
LoRA, abbreviazione di Low-rank Adaptation, è un'altra entusiasmante funzionalità di ComfyUI che ti consente di modificare e affinare i tuoi modelli checkpoint. 🎨 È come aggiungere un piccolo modello specializzato sopra il tuo modello di base per ottenere stili specifici o incorporare elementi personalizzati.
I modelli LoRA sono compatti ed efficienti, rendendoli facili da usare e condividere. Sono comunemente usati per attività come la modifica dello stile artistico di un'immagine o l'iniezione di una persona o un oggetto specifico nel risultato generato.
Quando applichi un modello LoRA a un modello checkpoint, esso modifica i componenti MODEL e CLIP lasciando inalterato il VAE (Variational Autoencoder). Ciò significa che il LoRA si concentra sulla regolazione del contenuto e dello stile dell'immagine senza alterarne la struttura complessiva.
Utilizzare LoRA in ComfyUI è semplice. Diamo un'occhiata al metodo più semplice:
ComfyUI combinerà quindi il modello checkpoint e il modello LoRA per creare un'immagine che rifletta i prompt specificati e incorpori le modifiche introdotte dal LoRA.
Ma se volessi applicare più LoRA a una singola immagine? Nessun problema! ComfyUI ti consente di utilizzare due o più LoRA nello stesso flusso di lavoro da testo a immagine.
Il processo è simile all'utilizzo di un singolo LoRA, ma dovrai selezionare più modelli LoRA invece di uno solo. ComfyUI applicherà i LoRA in sequenza, il che significa che ogni LoRA si baserà sulle modifiche introdotte dal precedente.
Questo apre un mondo di possibilità per combinare diversi stili, elementi e modifiche nelle tue immagini generate dall'AI. 🌍💡 Sperimenta diverse combinazioni di LoRA per ottenere risultati unici e creativi!
Complimenti per aver completato questa guida per principianti a ComfyUI! 🙌 Ora sei pronto a tuffarti nell'entusiasmante mondo della creazione di arte AI. Ma perché preoccuparsi dell'installazione quando puoi iniziare a creare subito? 🤔
A RunComfy, abbiamo reso semplice per te utilizzare ComfyUI online senza alcuna configurazione. Il nostro servizio ComfyUI Online viene fornito precaricato con oltre 200 nodi e modelli popolari, insieme a oltre 50 flussi di lavoro mozzafiato per ispirare le tue creazioni.
🌟 Che tu sia un principiante o un artista AI esperto, RunComfy ha tutto ciò di cui hai bisogno per dare vita alle tue visioni artistiche. 💡 Non aspettare oltre – prova subito ComfyUI Online e sperimenta il potere della creazione artistica AI a portata di mano! 🚀
© Copyright 2024 RunComfy. Tutti i Diritti Riservati.