Updated: 5/24/2024
Halo, seniman AI! 👋 Selamat datang di tutorial ramah pemula kami tentang ComfyUI, alat yang sangat kuat dan fleksibel untuk menciptakan karya seni AI yang menakjubkan. 🎨 Dalam panduan ini, kami akan membahas dasar-dasar ComfyUI, mengeksplorasi fiturnya, dan membantu Anda membuka potensinya untuk membawa seni AI Anda ke tingkat berikutnya. 🚀
Kami akan membahas:
ComfyUI seperti memiliki tongkat ajaib 🪄 untuk menciptakan karya seni AI yang menakjubkan dengan mudah. Pada intinya, ComfyUI adalah antarmuka pengguna grafis berbasis node (GUI) yang dibangun di atas Stable Diffusion, model deep learning mutakhir yang menghasilkan gambar dari deskripsi teks. 🌟 Tapi yang membuat ComfyUI benar-benar istimewa adalah bagaimana ia memberdayakan seniman seperti Anda untuk melepaskan kreativitas Anda dan mewujudkan ide-ide liar Anda.
Bayangkan kanvas digital di mana Anda bisa membangun alur kerja generasi gambar unik Anda sendiri dengan menghubungkan berbagai node, masing-masing mewakili fungsi atau operasi tertentu. 🧩 Ini seperti membuat resep visual untuk karya seni AI Anda!
Ingin menghasilkan gambar dari awal menggunakan prompt teks? Ada node untuk itu! Perlu menerapkan sampler tertentu atau menyesuaikan tingkat kebisingan? Cukup tambahkan node yang sesuai dan saksikan keajaiban terjadi. ✨
Tapi inilah bagian terbaiknya: ComfyUI memecah alur kerja menjadi elemen yang dapat diatur ulang, memberi Anda kebebasan untuk membuat alur kerja kustom Anda sendiri yang disesuaikan dengan visi artistik Anda. 🖼️ Ini seperti memiliki toolkit pribadi yang beradaptasi dengan proses kreatif Anda.
AUTOMATIC1111 adalah GUI default untuk Stable Diffusion. Jadi, apakah Anda harus menggunakan ComfyUI sebagai gantinya? Mari kita bandingkan:
✅ Manfaat menggunakan ComfyUI:
❌ Kekurangan menggunakan ComfyUI:
Kami percaya bahwa cara terbaik untuk mempelajari ComfyUI adalah dengan langsung terjun ke contoh dan mengalaminya secara langsung. 🙌 Itulah sebabnya kami membuat tutorial unik ini yang berbeda dari yang lain. Dalam tutorial ini, Anda akan menemukan panduan langkah demi langkah yang dapat Anda ikuti.
Tapi inilah bagian terbaiknya: 🌟 Kami telah mengintegrasikan ComfyUI langsung ke halaman web ini! Anda akan dapat berinteraksi dengan contoh ComfyUI secara real-time saat Anda maju melalui panduan.🌟 Ayo mulai!
Mari kita mulai dengan kasus paling sederhana: menghasilkan gambar dari teks. Klik Queue Prompt untuk menjalankan alur kerja. Setelah menunggu sebentar, Anda akan melihat gambar pertama yang dihasilkan! Untuk memeriksa antrian Anda, cukup klik View Queue.
Berikut adalah alur kerja teks-ke-gambar default untuk Anda coba:
Alur kerja ComfyUI terdiri dari dua blok bangunan dasar: Nodes dan Edges.
Pertama, pilih model Stable Diffusion Checkpoint di node Load Checkpoint. Klik pada nama model untuk melihat model yang tersedia. Jika mengklik nama model tidak melakukan apa-apa, Anda mungkin perlu mengunggah model kustom.
Anda akan melihat dua node berlabel CLIP Text Encode (Prompt). Prompt atas terhubung ke input positif dari node KSampler, sedangkan prompt bawah terhubung ke input negatif. Jadi masukkan prompt positif Anda di yang atas dan prompt negatif Anda di yang bawah.
Node CLIP Text Encode mengubah prompt menjadi token dan mengkodekannya menjadi embeddings menggunakan text encoder.
💡 Tip: Gunakan sintaks (keyword:weight) untuk mengontrol berat kata kunci, misalnya (keyword:1.2) untuk meningkatkan efeknya atau (keyword:0.8) untuk menguranginya.
Klik Queue Prompt untuk menjalankan alur kerja. Setelah menunggu sebentar, gambar pertama Anda akan dihasilkan!
Kekuatan ComfyUI terletak pada konfigurasinya. Memahami apa yang dilakukan setiap node memungkinkan Anda menyesuaikannya dengan kebutuhan Anda. Tapi sebelum masuk ke detail, mari kita lihat proses Stable Diffusion untuk lebih memahami cara kerja ComfyUI.
Proses Stable Diffusion dapat diringkas dalam tiga langkah utama:
Sekarang kita memiliki pemahaman tingkat tinggi tentang proses Stable Diffusion, mari kita selami komponen dan node kunci di ComfyUI yang membuat proses ini mungkin.
Node Load Checkpoint di ComfyUI sangat penting untuk memilih model Stable Diffusion. Model Stable Diffusion terdiri dari tiga komponen utama: MODEL, CLIP, dan VAE. Mari kita jelajahi setiap komponen dan hubungannya dengan node yang sesuai di ComfyUI.
Penting untuk dicatat bahwa VAE adalah komponen terpisah dari model bahasa CLIP. Sementara CLIP fokus pada pemrosesan prompt teks, VAE menangani konversi antara ruang piksel dan ruang latent.
Node CLIP Text Encode di ComfyUI bertanggung jawab untuk mengambil prompt yang disediakan pengguna dan memasukkannya ke dalam model bahasa CLIP. CLIP adalah model bahasa yang kuat yang memahami makna semantik kata-kata dan dapat mengasosiasikannya dengan konsep visual. Ketika sebuah prompt dimasukkan ke dalam node CLIP Text Encode, ia mengalami proses transformasi di mana setiap kata diubah menjadi embeddings. Embeddings ini adalah vektor berdimensi tinggi yang menangkap informasi semantik dari kata-kata. Dengan mengubah prompt menjadi embeddings, CLIP memungkinkan MODEL untuk menghasilkan gambar yang secara akurat mencerminkan makna dan niat dari prompt yang diberikan.
Dalam proses teks-ke-gambar, generasi dimulai dengan gambar acak di ruang latent. Gambar acak ini berfungsi sebagai keadaan awal bagi MODEL untuk bekerja. Ukuran gambar latent sebanding dengan ukuran gambar sebenarnya di ruang piksel. Di ComfyUI, Anda dapat menyesuaikan tinggi dan lebar gambar latent untuk mengontrol ukuran gambar yang dihasilkan. Selain itu, Anda dapat mengatur ukuran batch untuk menentukan jumlah gambar yang dihasilkan dalam setiap run.
Ukuran optimal untuk gambar latent tergantung pada model Stable Diffusion tertentu yang digunakan. Untuk model SD v1.5, ukuran yang direkomendasikan adalah 512x512 atau 768x768, sedangkan untuk model SDXL, ukuran optimal adalah 1024x1024. ComfyUI menyediakan berbagai rasio aspek umum untuk dipilih, seperti 1:1 (persegi), 3:2 (landscape), 2:3 (potret), 4:3 (landscape), 3:4 (potret), 16:9 (widescreen), dan 9:16 (vertikal). Penting untuk dicatat bahwa lebar dan tinggi gambar latent harus dapat dibagi oleh 8 untuk memastikan kompatibilitas dengan arsitektur model.
VAE (Variational AutoEncoder) adalah komponen penting dalam model Stable Diffusion yang menangani konversi gambar antara ruang piksel dan ruang latent. Ini terdiri dari dua bagian utama: Image Encoder dan Image Decoder.
Image Encoder mengambil gambar di ruang piksel dan mengompresnya menjadi representasi latent berdimensi lebih rendah. Proses kompresi ini secara signifikan mengurangi ukuran data, memungkinkan pemrosesan dan penyimpanan yang lebih efisien. Misalnya, gambar berukuran 512x512 piksel dapat dikompres menjadi representasi latent berukuran 64x64.
Di sisi lain, Image Decoder, juga dikenal sebagai VAE Decoder, bertanggung jawab untuk merekonstruksi gambar dari representasi latent kembali ke ruang piksel. Ini mengambil representasi latent yang dikompresi dan memperluasnya untuk menghasilkan gambar akhir.
Menggunakan VAE menawarkan beberapa keuntungan:
Namun, ada juga beberapa kelemahan yang perlu dipertimbangkan:
Meskipun ada keterbatasan ini, VAE memainkan peran penting dalam model Stable Diffusion dengan memungkinkan konversi yang efisien antara ruang piksel dan ruang latent, memfasilitasi generasi lebih cepat dan kontrol yang lebih tepat terhadap gambar yang dihasilkan.
Node KSampler di ComfyUI adalah inti dari proses generasi gambar dalam Stable Diffusion. Ini bertanggung jawab untuk mendenoise gambar acak di ruang latent agar sesuai dengan prompt yang diberikan oleh pengguna. Node KSampler menggunakan teknik yang disebut reverse diffusion, di mana ia secara iteratif menyempurnakan representasi latent dengan menghapus noise dan menambahkan detail yang bermakna berdasarkan panduan dari embeddings CLIP.
Node KSampler menawarkan beberapa parameter yang memungkinkan pengguna untuk menyesuaikan proses generasi gambar:
Seed: Nilai seed mengontrol noise awal dan komposisi gambar akhir. Dengan mengatur seed tertentu, pengguna dapat mencapai hasil yang dapat direproduksi dan mempertahankan konsistensi di berbagai generasi.
Control_after_generation: Parameter ini menentukan bagaimana nilai seed berubah setelah setiap generasi. Ini bisa diatur untuk merandomkan (menghasilkan seed acak baru untuk setiap run), increment (meningkatkan nilai seed sebesar 1), decrement (mengurangi nilai seed sebesar 1), atau fixed (menjaga nilai seed tetap konstan).
Step: Jumlah langkah sampling menentukan intensitas proses penyempurnaan. Nilai yang lebih tinggi menghasilkan lebih sedikit artefak dan gambar yang lebih detail tetapi juga meningkatkan waktu generasi.
Sampler_name: Parameter ini memungkinkan pengguna untuk memilih algoritma sampling tertentu yang digunakan oleh KSampler. Algoritma sampling yang berbeda mungkin menghasilkan hasil yang sedikit berbeda dan memiliki kecepatan generasi yang bervariasi.
Scheduler: Scheduler mengontrol bagaimana tingkat noise berubah pada setiap langkah proses denoising. Ini menentukan laju di mana noise dihapus dari representasi latent.
Denoise: Parameter denoise mengatur jumlah noise awal yang harus dihapus oleh proses denoising. Nilai 1 berarti semua noise akan dihapus, menghasilkan gambar yang bersih dan detail.
Dengan menyesuaikan parameter ini, Anda dapat menyesuaikan proses generasi gambar untuk mencapai hasil yang diinginkan.
Di RunComfy, kami telah menciptakan pengalaman ComfyUI online terbaik hanya untuk Anda. Katakan selamat tinggal pada instalasi yang rumit! 🎉 Coba ComfyUI Online sekarang dan lepaskan potensi artistik Anda seperti tidak pernah sebelumnya! 🎉
Alur Kerja Gambar-ke-Gambar menghasilkan gambar berdasarkan prompt dan gambar input. Cobalah sendiri!
Untuk menggunakan alur kerja Gambar-ke-Gambar:
Untuk alur kerja ComfyUI premium lainnya, kunjungi 🌟Daftar Alur Kerja ComfyUI🌟
Berkat konfigurasinya yang sangat fleksibel, ComfyUI adalah salah satu GUI pertama yang mendukung model Stable Diffusion XL. Mari kita coba!
Untuk menggunakan alur kerja ComfyUI SDXL:
Mari kita selami sesuatu yang lebih kompleks: inpainting! Ketika Anda memiliki gambar yang bagus tetapi ingin mengubah bagian tertentu, inpainting adalah metode terbaik. Cobalah di sini!
Untuk menggunakan alur kerja inpainting:
Outpainting adalah teknik menarik lainnya yang memungkinkan Anda memperluas gambar Anda melampaui batas aslinya. 🌆 Ini seperti memiliki kanvas tak terbatas untuk bekerja!
Untuk menggunakan alur kerja ComfyUI Outpainting:
Untuk alur kerja inpainting/outpainting premium lainnya, kunjungi 🌟Daftar Alur Kerja ComfyUI🌟
Selanjutnya, mari kita jelajahi ComfyUI upscale. Kami akan memperkenalkan tiga alur kerja dasar untuk membantu Anda melakukan upscale dengan efisien.
Ada dua metode utama untuk melakukan upscaling:
Dua cara untuk mencapainya:
Metode upscaling lainnya adalah Upscale Latent, juga dikenal sebagai Hi-res Latent Fix Upscale, yang langsung melakukan upscaling di ruang latent.
Untuk alur kerja restore/upscale premium lainnya, kunjungi 🌟Daftar Alur Kerja ComfyUI🌟
Bersiaplah untuk membawa seni AI Anda ke tingkat berikutnya dengan ControlNet, teknologi revolusioner yang mengubah cara generasi gambar!
ControlNet seperti tongkat ajaib 🪄 yang memberi Anda kendali yang belum pernah terjadi sebelumnya atas gambar AI yang dihasilkan. Ini bekerja sama dengan model kuat seperti Stable Diffusion, meningkatkan kemampuannya dan memungkinkan Anda memandu proses pembuatan gambar seperti tidak pernah sebelumnya!
Bayangkan bisa menentukan tepi, pose manusia, kedalaman, atau bahkan peta segmentasi dari gambar yang diinginkan. 🌠 Dengan ControlNet, Anda bisa melakukan itu!
Jika Anda ingin menyelami lebih dalam dunia ControlNet dan melepaskan potensinya sepenuhnya, kami telah menyiapkan tutorial terperinci tentang menguasai ControlNet di ComfyUI! 📚 Ini penuh dengan panduan langkah demi langkah, dan contoh inspiratif untuk membantu Anda menjadi ahli ControlNet. 🏆
ComfyUI Manager adalah node kustom yang memungkinkan Anda menginstal dan memperbarui node kustom lainnya melalui antarmuka ComfyUI. Anda akan menemukan tombol Manager di menu Queue Prompt.
Jika sebuah alur kerja memerlukan node kustom yang belum Anda instal, ikuti langkah-langkah ini:
Klik dua kali area kosong untuk membuka menu pencarian node.
Embeddings, juga dikenal sebagai inversi tekstual, adalah fitur kuat di ComfyUI yang memungkinkan Anda menyuntikkan konsep atau gaya kustom ke dalam gambar AI yang dihasilkan. 💡 Ini seperti mengajarkan AI kata atau frasa baru dan mengasosiasikannya dengan karakteristik visual tertentu.
Untuk menggunakan embeddings di ComfyUI, cukup ketik "embedding:" diikuti dengan nama embedding Anda di kotak prompt positif atau negatif. Misalnya:
embedding: BadDream
Saat Anda menggunakan prompt ini, ComfyUI akan mencari file embedding bernama "BadDream" di folder ComfyUI > models > embeddings. 📂 Jika menemukan kecocokan, itu akan menerapkan karakteristik visual yang sesuai ke gambar yang dihasilkan.
Embeddings adalah cara yang bagus untuk mempersonalisasi seni AI Anda dan mencapai gaya atau estetika tertentu. 🎨 Anda dapat membuat embeddings Anda sendiri dengan melatihnya pada serangkaian gambar yang mewakili konsep atau gaya yang diinginkan.
Mengingat nama-nama embedding Anda secara tepat bisa merepotkan, terutama jika Anda memiliki koleksi besar. 😅 Di sinilah node kustom ComfyUI-Custom-Scripts datang untuk menyelamatkan!
Untuk mengaktifkan autocomplete nama embedding:
Setelah Anda menginstal node ComfyUI-Custom-Scripts, Anda akan mengalami cara yang lebih ramah pengguna untuk menggunakan embeddings. 😊 Cukup mulai mengetik "embedding:" di kotak prompt, dan daftar embedding yang tersedia akan muncul. Anda kemudian dapat memilih embedding yang diinginkan dari daftar, menghemat waktu dan usaha!
Tahukah Anda bahwa Anda dapat mengontrol kekuatan embeddings Anda? 💪 Karena embeddings pada dasarnya adalah kata kunci, Anda dapat menerapkan bobot pada mereka seperti halnya dengan kata kunci biasa dalam prompt Anda.
Untuk menyesuaikan bobot embedding, gunakan sintaks berikut:
(embedding: BadDream:1.2)
Dalam contoh ini, bobot embedding "BadDream" meningkat sebesar 20%. Jadi bobot yang lebih tinggi (misalnya, 1.2) akan membuat embedding lebih menonjol, sementara bobot yang lebih rendah (misalnya, 0.8) akan mengurangi pengaruhnya. 🎚️ Ini memberi Anda lebih banyak kontrol atas hasil akhir!
LoRA, singkatan dari Low-rank Adaptation, adalah fitur menarik lainnya di ComfyUI yang memungkinkan Anda memodifikasi dan menyesuaikan model checkpoint Anda. 🎨 Ini seperti menambahkan model kecil khusus di atas model dasar Anda untuk mencapai gaya tertentu atau memasukkan elemen kustom.
Model LoRA kompak dan efisien, membuatnya mudah digunakan dan dibagikan. Mereka umumnya digunakan untuk tugas-tugas seperti memodifikasi gaya artistik gambar atau menyuntikkan orang atau objek tertentu ke dalam hasil yang dihasilkan.
Saat Anda menerapkan model LoRA ke model checkpoint, itu memodifikasi komponen MODEL dan CLIP sambil meninggalkan VAE (Variational Autoencoder) tidak tersentuh. Ini berarti LoRA berfokus pada penyesuaian konten dan gaya gambar tanpa mengubah struktur keseluruhannya.
Menggunakan LoRA di ComfyUI sangat mudah. Mari kita lihat metode yang paling sederhana:
ComfyUI kemudian akan menggabungkan model checkpoint dan model LoRA untuk menciptakan gambar yang mencerminkan prompt yang ditentukan dan menggabungkan modifikasi yang diperkenalkan oleh LoRA.
Tapi bagaimana jika Anda ingin menerapkan beberapa LoRA ke satu gambar? Tidak masalah! ComfyUI memungkinkan Anda menggunakan dua atau lebih LoRA dalam alur kerja teks-ke-gambar yang sama.
Prosesnya mirip dengan menggunakan satu LoRA, tetapi Anda perlu memilih beberapa model LoRA daripada hanya satu. ComfyUI akan menerapkan LoRA secara berurutan, yang berarti bahwa setiap LoRA akan membangun modifikasi yang diperkenalkan oleh yang sebelumnya.
Ini membuka dunia kemungkinan untuk menggabungkan gaya, elemen, dan modifikasi yang berbeda dalam gambar AI yang dihasilkan Anda. 🌍💡 Bereksperimenlah dengan kombinasi LoRA yang berbeda untuk mencapai hasil yang unik dan kreatif!
Selamat atas penyelesaian panduan pemula ini untuk ComfyUI! 🙌 Anda sekarang siap untuk terjun ke dunia penciptaan seni AI yang menarik. Tapi mengapa repot dengan instalasi jika Anda bisa langsung mulai menciptakan? 🤔
Di RunComfy, kami telah mempermudah Anda untuk menggunakan ComfyUI online tanpa setup apa pun. Layanan ComfyUI Online kami sudah dimuat dengan lebih dari 200 node dan model populer, serta lebih dari 50 alur kerja menakjubkan untuk menginspirasi kreasi Anda.
🌟 Apakah Anda pemula atau seniman AI berpengalaman, RunComfy memiliki semua yang Anda butuhkan untuk mewujudkan visi artistik Anda. 💡 Jangan tunggu lebih lama lagi – coba ComfyUI Online sekarang dan rasakan kekuatan penciptaan seni AI di ujung jari Anda! 🚀
© Hak Cipta 2024 RunComfy. Seluruh Hak Cipta Dilindungi.