ComfyUI  >  Tutorial  >  Buka Kekuatan ComfyUI: Panduan Pemula dengan Latihan Langsung

Halo, seniman AI! 👋 Selamat datang di tutorial ramah pemula kami tentang ComfyUI, alat yang sangat kuat dan fleksibel untuk menciptakan karya seni AI yang menakjubkan. 🎨 Dalam panduan ini, kami akan membahas dasar-dasar ComfyUI, mengeksplorasi fiturnya, dan membantu Anda membuka potensinya untuk membawa seni AI Anda ke tingkat berikutnya. 🚀

Kami akan membahas:

1. Apa itu ComfyUI?

  • 1.1. ComfyUI vs. AUTOMATIC1111
  • 1.2. Di Mana Memulai dengan ComfyUI?
  • 1.3. Kontrol Dasar

2. Alur Kerja ComfyUI: Teks-ke-Gambar

  • 2.1. Memilih Model
  • 2.2. Memasukkan Prompt Positif dan Prompt Negatif
  • 2.3. Menghasilkan Gambar
  • 2.4. Penjelasan Teknis tentang ComfyUI
    • 2.4.1 Muat Node Checkpoint
    • 2.4.2. CLIP Text Encode
    • 2.4.3. Gambar Latent Kosong
    • 2.4.4. VAE
    • 2.4.5. KSampler

3. Alur Kerja ComfyUI: Gambar-ke-Gambar

4. ComfyUI SDXL

5. ComfyUI Inpainting

6. ComfyUI Outpainting

7. ComfyUI Upscale

  • 7.1. Upscale Pixel
    • 7.1.1. Upscale Pixel dengan Algoritma
    • 7.1.2. Upscale Pixel dengan Model
  • 7.2. Upscale Latent
  • 7.3. Upscale Pixel vs. Upscale Latent

8. ComfyUI ControlNet

9. ComfyUI Manager

  • 9.1. Cara Menginstal Node Kustom yang Hilang
  • 9.2. Cara Memperbarui Node Kustom
  • 9.3. Cara Memuat Node Kustom dalam Alur Kerja Anda

10. ComfyUI Embeddings

  • 10.1. Embedding dengan Autocomplete
  • 10.2. Berat Embedding

11. ComfyUI LoRA

  • 11.1. Alur Kerja LoRA Sederhana
  • 11.2. Multiple LoRAs

12. Pintasan dan Trik untuk ComfyUI

  • 12.1. Salin dan Tempel
  • 12.2. Memindahkan Beberapa Node
  • 12.3. Melewati Node
  • 12.4. Meminimalkan Node
  • 12.5. Menghasilkan Gambar
  • 12.6. Alur Kerja Tertanam
  • 12.7. Perbaiki Seed untuk Menghemat Waktu

13. ComfyUI Online

1. Apa itu ComfyUI? 🤔

ComfyUI seperti memiliki tongkat ajaib 🪄 untuk menciptakan karya seni AI yang menakjubkan dengan mudah. Pada intinya, ComfyUI adalah antarmuka pengguna grafis berbasis node (GUI) yang dibangun di atas Stable Diffusion, model deep learning mutakhir yang menghasilkan gambar dari deskripsi teks. 🌟 Tapi yang membuat ComfyUI benar-benar istimewa adalah bagaimana ia memberdayakan seniman seperti Anda untuk melepaskan kreativitas Anda dan mewujudkan ide-ide liar Anda.

Bayangkan kanvas digital di mana Anda bisa membangun alur kerja generasi gambar unik Anda sendiri dengan menghubungkan berbagai node, masing-masing mewakili fungsi atau operasi tertentu. 🧩 Ini seperti membuat resep visual untuk karya seni AI Anda!

Ingin menghasilkan gambar dari awal menggunakan prompt teks? Ada node untuk itu! Perlu menerapkan sampler tertentu atau menyesuaikan tingkat kebisingan? Cukup tambahkan node yang sesuai dan saksikan keajaiban terjadi. ✨

Tapi inilah bagian terbaiknya: ComfyUI memecah alur kerja menjadi elemen yang dapat diatur ulang, memberi Anda kebebasan untuk membuat alur kerja kustom Anda sendiri yang disesuaikan dengan visi artistik Anda. 🖼️ Ini seperti memiliki toolkit pribadi yang beradaptasi dengan proses kreatif Anda.

1.1. ComfyUI vs. AUTOMATIC1111 🆚

AUTOMATIC1111 adalah GUI default untuk Stable Diffusion. Jadi, apakah Anda harus menggunakan ComfyUI sebagai gantinya? Mari kita bandingkan:

✅ Manfaat menggunakan ComfyUI:

  1. Ringan: Berjalan cepat dan efisien.
  2. Fleksibel: Sangat dapat dikonfigurasi untuk memenuhi kebutuhan Anda.
  3. Transparan: Aliran data terlihat dan mudah dipahami.
  4. Mudah dibagikan: Setiap file mewakili alur kerja yang dapat direproduksi.
  5. Bagus untuk prototyping: Membuat prototipe dengan antarmuka grafis daripada coding.

❌ Kekurangan menggunakan ComfyUI:

  1. Antarmuka tidak konsisten: Setiap alur kerja mungkin memiliki tata letak node yang berbeda.
  2. Terlalu detail: Pengguna rata-rata mungkin tidak perlu mengetahui koneksi yang mendasarinya.

1.2. Di Mana Memulai dengan ComfyUI? 🏁

Kami percaya bahwa cara terbaik untuk mempelajari ComfyUI adalah dengan langsung terjun ke contoh dan mengalaminya secara langsung. 🙌 Itulah sebabnya kami membuat tutorial unik ini yang berbeda dari yang lain. Dalam tutorial ini, Anda akan menemukan panduan langkah demi langkah yang dapat Anda ikuti.

Tapi inilah bagian terbaiknya: 🌟 Kami telah mengintegrasikan ComfyUI langsung ke halaman web ini! Anda akan dapat berinteraksi dengan contoh ComfyUI secara real-time saat Anda maju melalui panduan.🌟 Ayo mulai!

2. Alur Kerja ComfyUI: Teks-ke-Gambar 🖼️

Mari kita mulai dengan kasus paling sederhana: menghasilkan gambar dari teks. Klik Queue Prompt untuk menjalankan alur kerja. Setelah menunggu sebentar, Anda akan melihat gambar pertama yang dihasilkan! Untuk memeriksa antrian Anda, cukup klik View Queue.

Berikut adalah alur kerja teks-ke-gambar default untuk Anda coba:

Blok Bangunan Dasar 🕹️

Alur kerja ComfyUI terdiri dari dua blok bangunan dasar: Nodes dan Edges.

  • Nodes adalah blok persegi panjang, misalnya, Load Checkpoint, Clip Text Encoder, dll. Setiap node menjalankan kode tertentu dan memerlukan input, output, dan parameter.
  • Edges adalah kabel yang menghubungkan output dan input antar node.

Kontrol Dasar 🕹️

  • Zoom in dan out menggunakan roda mouse atau pinch dua jari.
  • Seret dan tahan titik input atau output untuk membuat koneksi antar node.
  • Pindah di sekitar ruang kerja dengan menahan dan menyeret dengan tombol kiri mouse.

Mari kita selami detail alur kerja ini.

ComfyUI workflow: text to image

2.1. Memilih Model 🗃️

Pertama, pilih model Stable Diffusion Checkpoint di node Load Checkpoint. Klik pada nama model untuk melihat model yang tersedia. Jika mengklik nama model tidak melakukan apa-apa, Anda mungkin perlu mengunggah model kustom.

2.2. Memasukkan Prompt Positif dan Prompt Negatif 📝

Anda akan melihat dua node berlabel CLIP Text Encode (Prompt). Prompt atas terhubung ke input positif dari node KSampler, sedangkan prompt bawah terhubung ke input negatif. Jadi masukkan prompt positif Anda di yang atas dan prompt negatif Anda di yang bawah.

Node CLIP Text Encode mengubah prompt menjadi token dan mengkodekannya menjadi embeddings menggunakan text encoder.

💡 Tip: Gunakan sintaks (keyword:weight) untuk mengontrol berat kata kunci, misalnya (keyword:1.2) untuk meningkatkan efeknya atau (keyword:0.8) untuk menguranginya.

2.3. Menghasilkan Gambar 🎨

Klik Queue Prompt untuk menjalankan alur kerja. Setelah menunggu sebentar, gambar pertama Anda akan dihasilkan!

2.4. Penjelasan Teknis tentang ComfyUI 🤓

Kekuatan ComfyUI terletak pada konfigurasinya. Memahami apa yang dilakukan setiap node memungkinkan Anda menyesuaikannya dengan kebutuhan Anda. Tapi sebelum masuk ke detail, mari kita lihat proses Stable Diffusion untuk lebih memahami cara kerja ComfyUI.

Proses Stable Diffusion dapat diringkas dalam tiga langkah utama:

  1. Text Encoding: Prompt yang dimasukkan pengguna dikompilasi menjadi vektor fitur kata individu oleh komponen yang disebut Text Encoder. Langkah ini mengubah teks menjadi format yang dapat dipahami dan digunakan oleh model.
  2. Latent Space Transformation: Vektor fitur dari Text Encoder dan gambar noise acak diubah menjadi ruang latent. Di ruang ini, gambar acak mengalami proses denoising berdasarkan vektor fitur, menghasilkan produk antara. Langkah ini adalah tempat keajaiban terjadi, karena model belajar mengasosiasikan fitur teks dengan representasi visual.
  3. Image Decoding: Akhirnya, produk antara dari ruang latent didekode oleh Image Decoder, mengubahnya menjadi gambar nyata yang dapat kita lihat dan hargai.

Sekarang kita memiliki pemahaman tingkat tinggi tentang proses Stable Diffusion, mari kita selami komponen dan node kunci di ComfyUI yang membuat proses ini mungkin.

2.4.1 Muat Node Checkpoint 🗃️

Node Load Checkpoint di ComfyUI sangat penting untuk memilih model Stable Diffusion. Model Stable Diffusion terdiri dari tiga komponen utama: MODEL, CLIP, dan VAE. Mari kita jelajahi setiap komponen dan hubungannya dengan node yang sesuai di ComfyUI.

  1. MODEL: Komponen MODEL adalah model prediktor noise yang beroperasi di ruang latent. Ini bertanggung jawab untuk proses inti menghasilkan gambar dari representasi latent. Di ComfyUI, output MODEL dari node Load Checkpoint terhubung ke node KSampler, di mana proses reverse diffusion terjadi. Node KSampler menggunakan MODEL untuk mendenoise representasi latent secara iteratif, secara bertahap menyempurnakan gambar hingga sesuai dengan prompt yang diinginkan.
  2. CLIP: CLIP (Contrastive Language-Image Pre-training) adalah model bahasa yang memproses prompt positif dan negatif yang disediakan oleh pengguna. Ini mengubah prompt teks menjadi format yang dapat dipahami dan digunakan oleh MODEL untuk memandu proses generasi gambar. Di ComfyUI, output CLIP dari node Load Checkpoint terhubung ke node CLIP Text Encode. Node CLIP Text Encode mengambil prompt yang disediakan pengguna dan memasukkannya ke dalam model bahasa CLIP, mengubah setiap kata menjadi embeddings. Embeddings ini menangkap makna semantik kata-kata dan memungkinkan MODEL untuk menghasilkan gambar yang sesuai dengan prompt yang diberikan.
  3. VAE: VAE (Variational AutoEncoder) bertanggung jawab untuk mengubah gambar antara ruang piksel dan ruang latent. Ini terdiri dari encoder yang mengompresi gambar menjadi representasi latent berdimensi lebih rendah dan decoder yang merekonstruksi gambar dari representasi latent. Dalam proses teks-ke-gambar, VAE hanya digunakan pada langkah terakhir untuk mengubah gambar yang dihasilkan dari ruang latent kembali ke ruang piksel. Node VAE Decode di ComfyUI mengambil output dari node KSampler (yang beroperasi di ruang latent) dan menggunakan bagian decoder dari VAE untuk mengubah representasi latent menjadi gambar akhir di ruang piksel.

Penting untuk dicatat bahwa VAE adalah komponen terpisah dari model bahasa CLIP. Sementara CLIP fokus pada pemrosesan prompt teks, VAE menangani konversi antara ruang piksel dan ruang latent.

2.4.2. CLIP Text Encode 📝

Node CLIP Text Encode di ComfyUI bertanggung jawab untuk mengambil prompt yang disediakan pengguna dan memasukkannya ke dalam model bahasa CLIP. CLIP adalah model bahasa yang kuat yang memahami makna semantik kata-kata dan dapat mengasosiasikannya dengan konsep visual. Ketika sebuah prompt dimasukkan ke dalam node CLIP Text Encode, ia mengalami proses transformasi di mana setiap kata diubah menjadi embeddings. Embeddings ini adalah vektor berdimensi tinggi yang menangkap informasi semantik dari kata-kata. Dengan mengubah prompt menjadi embeddings, CLIP memungkinkan MODEL untuk menghasilkan gambar yang secara akurat mencerminkan makna dan niat dari prompt yang diberikan.

2.4.3. Gambar Latent Kosong 🌌

Dalam proses teks-ke-gambar, generasi dimulai dengan gambar acak di ruang latent. Gambar acak ini berfungsi sebagai keadaan awal bagi MODEL untuk bekerja. Ukuran gambar latent sebanding dengan ukuran gambar sebenarnya di ruang piksel. Di ComfyUI, Anda dapat menyesuaikan tinggi dan lebar gambar latent untuk mengontrol ukuran gambar yang dihasilkan. Selain itu, Anda dapat mengatur ukuran batch untuk menentukan jumlah gambar yang dihasilkan dalam setiap run.

Ukuran optimal untuk gambar latent tergantung pada model Stable Diffusion tertentu yang digunakan. Untuk model SD v1.5, ukuran yang direkomendasikan adalah 512x512 atau 768x768, sedangkan untuk model SDXL, ukuran optimal adalah 1024x1024. ComfyUI menyediakan berbagai rasio aspek umum untuk dipilih, seperti 1:1 (persegi), 3:2 (landscape), 2:3 (potret), 4:3 (landscape), 3:4 (potret), 16:9 (widescreen), dan 9:16 (vertikal). Penting untuk dicatat bahwa lebar dan tinggi gambar latent harus dapat dibagi oleh 8 untuk memastikan kompatibilitas dengan arsitektur model.

2.4.4. VAE 🔍

VAE (Variational AutoEncoder) adalah komponen penting dalam model Stable Diffusion yang menangani konversi gambar antara ruang piksel dan ruang latent. Ini terdiri dari dua bagian utama: Image Encoder dan Image Decoder.

Image Encoder mengambil gambar di ruang piksel dan mengompresnya menjadi representasi latent berdimensi lebih rendah. Proses kompresi ini secara signifikan mengurangi ukuran data, memungkinkan pemrosesan dan penyimpanan yang lebih efisien. Misalnya, gambar berukuran 512x512 piksel dapat dikompres menjadi representasi latent berukuran 64x64.

Di sisi lain, Image Decoder, juga dikenal sebagai VAE Decoder, bertanggung jawab untuk merekonstruksi gambar dari representasi latent kembali ke ruang piksel. Ini mengambil representasi latent yang dikompresi dan memperluasnya untuk menghasilkan gambar akhir.

Menggunakan VAE menawarkan beberapa keuntungan:

  1. Efisiensi: Dengan mengompresi gambar ke ruang latent berdimensi lebih rendah, VAE memungkinkan generasi lebih cepat dan waktu pelatihan yang lebih pendek. Ukuran data yang berkurang memungkinkan pemrosesan dan penggunaan memori yang lebih efisien.
  2. Manipulasi ruang latent: Ruang latent menyediakan representasi yang lebih kompak dan bermakna dari gambar. Ini memungkinkan kontrol dan pengeditan yang lebih tepat terhadap detail dan gaya gambar. Dengan memanipulasi representasi latent, menjadi mungkin untuk mengubah aspek-aspek spesifik dari gambar yang dihasilkan.

Namun, ada juga beberapa kelemahan yang perlu dipertimbangkan:

  1. Kehilangan data: Selama proses encoding dan decoding, beberapa detail dari gambar asli mungkin hilang. Langkah-langkah kompresi dan rekonstruksi dapat memperkenalkan artefak atau variasi kecil dalam gambar akhir dibandingkan dengan yang asli.
  2. Penangkapan data asli terbatas: Ruang latent berdimensi lebih rendah mungkin tidak dapat sepenuhnya menangkap semua fitur dan detail rumit dari gambar asli. Beberapa informasi mungkin hilang selama proses kompresi, menghasilkan representasi yang sedikit kurang akurat dari data asli.

Meskipun ada keterbatasan ini, VAE memainkan peran penting dalam model Stable Diffusion dengan memungkinkan konversi yang efisien antara ruang piksel dan ruang latent, memfasilitasi generasi lebih cepat dan kontrol yang lebih tepat terhadap gambar yang dihasilkan.

2.4.5. KSampler ⚙️

Node KSampler di ComfyUI adalah inti dari proses generasi gambar dalam Stable Diffusion. Ini bertanggung jawab untuk mendenoise gambar acak di ruang latent agar sesuai dengan prompt yang diberikan oleh pengguna. Node KSampler menggunakan teknik yang disebut reverse diffusion, di mana ia secara iteratif menyempurnakan representasi latent dengan menghapus noise dan menambahkan detail yang bermakna berdasarkan panduan dari embeddings CLIP.

Node KSampler menawarkan beberapa parameter yang memungkinkan pengguna untuk menyesuaikan proses generasi gambar:

Seed: Nilai seed mengontrol noise awal dan komposisi gambar akhir. Dengan mengatur seed tertentu, pengguna dapat mencapai hasil yang dapat direproduksi dan mempertahankan konsistensi di berbagai generasi.

Control_after_generation: Parameter ini menentukan bagaimana nilai seed berubah setelah setiap generasi. Ini bisa diatur untuk merandomkan (menghasilkan seed acak baru untuk setiap run), increment (meningkatkan nilai seed sebesar 1), decrement (mengurangi nilai seed sebesar 1), atau fixed (menjaga nilai seed tetap konstan).

Step: Jumlah langkah sampling menentukan intensitas proses penyempurnaan. Nilai yang lebih tinggi menghasilkan lebih sedikit artefak dan gambar yang lebih detail tetapi juga meningkatkan waktu generasi.

Sampler_name: Parameter ini memungkinkan pengguna untuk memilih algoritma sampling tertentu yang digunakan oleh KSampler. Algoritma sampling yang berbeda mungkin menghasilkan hasil yang sedikit berbeda dan memiliki kecepatan generasi yang bervariasi.

Scheduler: Scheduler mengontrol bagaimana tingkat noise berubah pada setiap langkah proses denoising. Ini menentukan laju di mana noise dihapus dari representasi latent.

Denoise: Parameter denoise mengatur jumlah noise awal yang harus dihapus oleh proses denoising. Nilai 1 berarti semua noise akan dihapus, menghasilkan gambar yang bersih dan detail.

Dengan menyesuaikan parameter ini, Anda dapat menyesuaikan proses generasi gambar untuk mencapai hasil yang diinginkan.

Sekarang, Apakah Anda siap untuk memulai perjalanan ComfyUI Anda?

Di RunComfy, kami telah menciptakan pengalaman ComfyUI online terbaik hanya untuk Anda. Katakan selamat tinggal pada instalasi yang rumit! 🎉 Coba ComfyUI Online sekarang dan lepaskan potensi artistik Anda seperti tidak pernah sebelumnya! 🎉

3. Alur Kerja ComfyUI: Gambar-ke-Gambar 🖼️

Alur Kerja Gambar-ke-Gambar menghasilkan gambar berdasarkan prompt dan gambar input. Cobalah sendiri!

Untuk menggunakan alur kerja Gambar-ke-Gambar:

  1. Pilih model checkpoint.
  2. Unggah gambar sebagai prompt gambar.
  3. Revisi prompt positif dan negatif.
  4. Sesuaikan denoise (kekuatan denoising) di node KSampler jika perlu.
  5. Tekan Queue Prompt untuk memulai generasi.
ComfyUI workflow: image to image

Untuk alur kerja ComfyUI premium lainnya, kunjungi 🌟Daftar Alur Kerja ComfyUI🌟

4. ComfyUI SDXL 🚀

Berkat konfigurasinya yang sangat fleksibel, ComfyUI adalah salah satu GUI pertama yang mendukung model Stable Diffusion XL. Mari kita coba!

Untuk menggunakan alur kerja ComfyUI SDXL:

  1. Revisi prompt positif dan negatif.
  2. Tekan Queue Prompt untuk memulai generasi.

5. ComfyUI Inpainting 🎨

Mari kita selami sesuatu yang lebih kompleks: inpainting! Ketika Anda memiliki gambar yang bagus tetapi ingin mengubah bagian tertentu, inpainting adalah metode terbaik. Cobalah di sini!

Untuk menggunakan alur kerja inpainting:

  1. Unggah gambar yang ingin Anda inpainting.
  2. Klik kanan gambar dan pilih "Open in MaskEditor". Mask area yang ingin diregenerasi, lalu klik "Save to node". ComfyUI workflow: inpainting
  3. Pilih model Checkpoint:
    • Alur kerja ini hanya bekerja dengan model Stable Diffusion standar, bukan model Inpainting.
    • Jika Anda ingin menggunakan model inpainting, silakan ganti node "VAE Encode" dan "Set Noise Latent Mask" ke node "VAE Encode (Inpaint)", yang dirancang khusus untuk model inpainting.
  4. Sesuaikan proses inpainting:
    • Di node CLIP Text Encode (Prompt), Anda dapat memasukkan informasi tambahan untuk memandu inpainting. Misalnya, Anda dapat menentukan gaya, tema, atau elemen yang ingin Anda sertakan di area inpainting.
  5. Atur kekuatan denoising asli (denoise), misalnya, 0.6.
  6. Tekan Queue Prompt untuk melakukan inpainting.
ComfyUI inpainting workflow

6. ComfyUI Outpainting 🖌️

Outpainting adalah teknik menarik lainnya yang memungkinkan Anda memperluas gambar Anda melampaui batas aslinya. 🌆 Ini seperti memiliki kanvas tak terbatas untuk bekerja!

Untuk menggunakan alur kerja ComfyUI Outpainting:

  1. Mulai dengan gambar yang ingin Anda perbesar.
  2. Gunakan node Pad Image for Outpainting ke alur kerja Anda.
  3. Konfigurasikan pengaturan outpainting:
    • kiri, atas, kanan, bawah: Tentukan jumlah piksel untuk diperluas ke setiap arah.
    • feathering: Sesuaikan kelancaran transisi antara gambar asli dan area outpainted. Nilai yang lebih tinggi menciptakan campuran yang lebih bertahap tetapi mungkin memperkenalkan efek smudging.
  4. Sesuaikan proses outpainting:
    • Di node CLIP Text Encode (Prompt), Anda dapat memasukkan informasi tambahan untuk memandu outpainting. Misalnya, Anda dapat menentukan gaya, tema, atau elemen yang ingin Anda sertakan di area yang diperluas.
    • Bereksperimenlah dengan prompt yang berbeda untuk mencapai hasil yang diinginkan.
  5. Sesuaikan node VAE Encode (untuk Inpainting):
    • Sesuaikan parameter grow_mask_by untuk mengontrol ukuran mask outpainting. Nilai lebih dari 10 direkomendasikan untuk hasil optimal.
  6. Tekan Queue Prompt untuk memulai proses outpainting.
ComfyUI outpainting workflow

Untuk alur kerja inpainting/outpainting premium lainnya, kunjungi 🌟Daftar Alur Kerja ComfyUI🌟

7. ComfyUI Upscale ⬆️

Selanjutnya, mari kita jelajahi ComfyUI upscale. Kami akan memperkenalkan tiga alur kerja dasar untuk membantu Anda melakukan upscale dengan efisien.

Ada dua metode utama untuk melakukan upscaling:

  1. Upscale pixel: Langsung melakukan upscale pada gambar yang terlihat.
    • Input: gambar, Output: gambar yang di-upscale
  2. Upscale latent: Melakukan upscale pada gambar di ruang latent yang tidak terlihat.
    • Input: latent, Output: latent yang di-upscale (memerlukan decoding untuk menjadi gambar yang terlihat)

7.1. Upscale Pixel 🖼️

Dua cara untuk mencapainya:

  1. Menggunakan algoritma: Kecepatan generasi tercepat, tetapi hasilnya sedikit lebih rendah dibandingkan dengan model.
  2. Menggunakan model: Hasil lebih baik, tetapi waktu generasi lebih lambat.

7.1.1. Upscale Pixel dengan Algoritma 🧮

  • Tambahkan node Upscale Image by.
  • Parameter method: Pilih algoritma upscaling (bicubic, bilinear, nearest-exact).
  • Parameter Scale: Tentukan faktor upscaling (misalnya, 2 untuk 2x).
ComfyUI Upscale Pixel by Algorithm

7.1.2. Upscale Pixel dengan Model 🤖

  • Tambahkan node Upscale Image (using Model).
  • Tambahkan node Load Upscale Model.
  • Pilih model yang sesuai untuk tipe gambar Anda (misalnya, anime atau real-life).
  • Pilih faktor upscaling (X2 atau X4).
ComfyUI Upscale Pixel by Model

7.2. Upscale Latent ⚙️

Metode upscaling lainnya adalah Upscale Latent, juga dikenal sebagai Hi-res Latent Fix Upscale, yang langsung melakukan upscaling di ruang latent.

ComfyUI Upscale Latent

7.3. Upscale Pixel vs. Upscale Latent 🆚

  • Upscale Pixel: Hanya memperbesar gambar tanpa menambahkan informasi baru. Generasi lebih cepat, tetapi mungkin memiliki efek smudging dan kurang detail.
  • Upscale Latent: Selain memperbesar, ini mengubah beberapa informasi gambar asli, memperkaya detail. Mungkin menyimpang dari gambar asli dan memiliki kecepatan generasi yang lebih lambat.

Untuk alur kerja restore/upscale premium lainnya, kunjungi 🌟Daftar Alur Kerja ComfyUI🌟

8. ComfyUI ControlNet 🎮

Bersiaplah untuk membawa seni AI Anda ke tingkat berikutnya dengan ControlNet, teknologi revolusioner yang mengubah cara generasi gambar!

ControlNet seperti tongkat ajaib 🪄 yang memberi Anda kendali yang belum pernah terjadi sebelumnya atas gambar AI yang dihasilkan. Ini bekerja sama dengan model kuat seperti Stable Diffusion, meningkatkan kemampuannya dan memungkinkan Anda memandu proses pembuatan gambar seperti tidak pernah sebelumnya!

Bayangkan bisa menentukan tepi, pose manusia, kedalaman, atau bahkan peta segmentasi dari gambar yang diinginkan. 🌠 Dengan ControlNet, Anda bisa melakukan itu!

Jika Anda ingin menyelami lebih dalam dunia ControlNet dan melepaskan potensinya sepenuhnya, kami telah menyiapkan tutorial terperinci tentang menguasai ControlNet di ComfyUI! 📚 Ini penuh dengan panduan langkah demi langkah, dan contoh inspiratif untuk membantu Anda menjadi ahli ControlNet. 🏆

9. ComfyUI Manager 🛠️

ComfyUI Manager adalah node kustom yang memungkinkan Anda menginstal dan memperbarui node kustom lainnya melalui antarmuka ComfyUI. Anda akan menemukan tombol Manager di menu Queue Prompt.

9.1. Cara Menginstal Node Kustom yang Hilang 📥

Jika sebuah alur kerja memerlukan node kustom yang belum Anda instal, ikuti langkah-langkah ini:

  1. Klik Manager di Menu.
  2. Klik Install Missing Custom Nodes.
  3. Restart ComfyUI sepenuhnya.
  4. Refresh browser.

9.2. Cara Memperbarui Node Kustom 🔄

  1. Klik Manager di Menu.
  2. Klik Fetch Updates (mungkin memerlukan waktu).
  3. Klik Install Custom Nodes.
  4. Jika ada pembaruan yang tersedia, tombol Update akan muncul di sebelah node kustom yang terinstal.
  5. Klik Update untuk memperbarui node.
  6. Restart ComfyUI.
  7. Refresh browser.
ComfyUI Manager

9.3. Cara Memuat Node Kustom dalam Alur Kerja Anda 🔍

Klik dua kali area kosong untuk membuka menu pencarian node.

ComfyUI Manager

10. ComfyUI Embeddings 📝

Embeddings, juga dikenal sebagai inversi tekstual, adalah fitur kuat di ComfyUI yang memungkinkan Anda menyuntikkan konsep atau gaya kustom ke dalam gambar AI yang dihasilkan. 💡 Ini seperti mengajarkan AI kata atau frasa baru dan mengasosiasikannya dengan karakteristik visual tertentu.

Untuk menggunakan embeddings di ComfyUI, cukup ketik "embedding:" diikuti dengan nama embedding Anda di kotak prompt positif atau negatif. Misalnya:

embedding: BadDream

ComfyUI Embeddings

Saat Anda menggunakan prompt ini, ComfyUI akan mencari file embedding bernama "BadDream" di folder ComfyUI > models > embeddings. 📂 Jika menemukan kecocokan, itu akan menerapkan karakteristik visual yang sesuai ke gambar yang dihasilkan.

Embeddings adalah cara yang bagus untuk mempersonalisasi seni AI Anda dan mencapai gaya atau estetika tertentu. 🎨 Anda dapat membuat embeddings Anda sendiri dengan melatihnya pada serangkaian gambar yang mewakili konsep atau gaya yang diinginkan.

10.1. Embedding dengan Autocomplete 🔠

Mengingat nama-nama embedding Anda secara tepat bisa merepotkan, terutama jika Anda memiliki koleksi besar. 😅 Di sinilah node kustom ComfyUI-Custom-Scripts datang untuk menyelamatkan!

Untuk mengaktifkan autocomplete nama embedding:

  1. Buka ComfyUI Manager dengan mengklik "Manager" di menu atas.
  2. Pergi ke "Install Custom nodes" dan cari "ComfyUI-Custom-Scripts".
  3. Klik "Install" untuk menambahkan node kustom ke setup ComfyUI Anda.
  4. Restart ComfyUI untuk menerapkan perubahan.

Setelah Anda menginstal node ComfyUI-Custom-Scripts, Anda akan mengalami cara yang lebih ramah pengguna untuk menggunakan embeddings. 😊 Cukup mulai mengetik "embedding:" di kotak prompt, dan daftar embedding yang tersedia akan muncul. Anda kemudian dapat memilih embedding yang diinginkan dari daftar, menghemat waktu dan usaha!

10.2. Berat Embedding ⚖️

Tahukah Anda bahwa Anda dapat mengontrol kekuatan embeddings Anda? 💪 Karena embeddings pada dasarnya adalah kata kunci, Anda dapat menerapkan bobot pada mereka seperti halnya dengan kata kunci biasa dalam prompt Anda.

Untuk menyesuaikan bobot embedding, gunakan sintaks berikut:

(embedding: BadDream:1.2)

Dalam contoh ini, bobot embedding "BadDream" meningkat sebesar 20%. Jadi bobot yang lebih tinggi (misalnya, 1.2) akan membuat embedding lebih menonjol, sementara bobot yang lebih rendah (misalnya, 0.8) akan mengurangi pengaruhnya. 🎚️ Ini memberi Anda lebih banyak kontrol atas hasil akhir!

11. ComfyUI LoRA 🧩

LoRA, singkatan dari Low-rank Adaptation, adalah fitur menarik lainnya di ComfyUI yang memungkinkan Anda memodifikasi dan menyesuaikan model checkpoint Anda. 🎨 Ini seperti menambahkan model kecil khusus di atas model dasar Anda untuk mencapai gaya tertentu atau memasukkan elemen kustom.

Model LoRA kompak dan efisien, membuatnya mudah digunakan dan dibagikan. Mereka umumnya digunakan untuk tugas-tugas seperti memodifikasi gaya artistik gambar atau menyuntikkan orang atau objek tertentu ke dalam hasil yang dihasilkan.

Saat Anda menerapkan model LoRA ke model checkpoint, itu memodifikasi komponen MODEL dan CLIP sambil meninggalkan VAE (Variational Autoencoder) tidak tersentuh. Ini berarti LoRA berfokus pada penyesuaian konten dan gaya gambar tanpa mengubah struktur keseluruhannya.

11.1. Cara menggunakan LoRA 🔧

Menggunakan LoRA di ComfyUI sangat mudah. Mari kita lihat metode yang paling sederhana:

  1. Pilih model checkpoint yang berfungsi sebagai dasar untuk generasi gambar Anda.
  2. Pilih model LoRA yang ingin Anda terapkan untuk memodifikasi gaya atau menyuntikkan elemen tertentu.
  3. Revisi prompt positif dan negatif untuk memandu proses generasi gambar.
  4. Klik "Queue Prompt" untuk mulai menghasilkan gambar dengan LoRA yang diterapkan. ▶

ComfyUI kemudian akan menggabungkan model checkpoint dan model LoRA untuk menciptakan gambar yang mencerminkan prompt yang ditentukan dan menggabungkan modifikasi yang diperkenalkan oleh LoRA.

11.2. Multiple LoRAs 🧩🧩

Tapi bagaimana jika Anda ingin menerapkan beberapa LoRA ke satu gambar? Tidak masalah! ComfyUI memungkinkan Anda menggunakan dua atau lebih LoRA dalam alur kerja teks-ke-gambar yang sama.

ComfyUI LoRA

Prosesnya mirip dengan menggunakan satu LoRA, tetapi Anda perlu memilih beberapa model LoRA daripada hanya satu. ComfyUI akan menerapkan LoRA secara berurutan, yang berarti bahwa setiap LoRA akan membangun modifikasi yang diperkenalkan oleh yang sebelumnya.

Ini membuka dunia kemungkinan untuk menggabungkan gaya, elemen, dan modifikasi yang berbeda dalam gambar AI yang dihasilkan Anda. 🌍💡 Bereksperimenlah dengan kombinasi LoRA yang berbeda untuk mencapai hasil yang unik dan kreatif!

12. Pintasan dan Trik untuk ComfyUI ⌨️🖱️

12.1. Salin dan Tempel 📋

  • Pilih node dan tekan Ctrl+C untuk menyalin.
  • Tekan Ctrl+V untuk menempel.
  • Tekan Ctrl+Shift+V untuk menempel dengan koneksi input utuh.

12.2. Memindahkan Beberapa Node 🖱️

  • Buat grup untuk memindahkan satu set node bersama-sama.
  • Atau, tahan Ctrl dan seret untuk membuat kotak untuk memilih beberapa node atau tahan Ctrl untuk memilih beberapa node secara individual.
  • Untuk memindahkan node yang dipilih, tahan Shift dan gerakkan mouse.

12.3. Melewati Node 🔇

  • Nonaktifkan sementara node dengan membisukannya. Pilih node dan tekan Ctrl+M.
  • Tidak ada pintasan keyboard untuk membisukan grup. Pilih Bypass Group Node di menu klik kanan atau bisukan node pertama di grup untuk menonaktifkannya.

12.4. Meminimalkan Node 🔍

  • Klik titik di sudut kiri atas node untuk meminimalkannya.

12.5. Menghasilkan Gambar ▶️

  • Tekan Ctrl+Enter untuk memasukkan alur kerja ke dalam antrian dan menghasilkan gambar.

12.6. Alur Kerja Tertanam 🖼️

  • ComfyUI menyimpan seluruh alur kerja dalam metadata file PNG yang dihasilkannya. Untuk memuat alur kerja, seret dan jatuhkan gambar ke dalam ComfyUI.

12.7. Perbaiki Seed untuk Menghemat Waktu ⏰

  • ComfyUI hanya menjalankan ulang node jika inputnya berubah. Saat bekerja pada rantai node yang panjang, hemat waktu dengan memperbaiki seed untuk menghindari regenerasi hasil yang dihasilkan sebelumnya.

13. ComfyUI Online 🚀

Selamat atas penyelesaian panduan pemula ini untuk ComfyUI! 🙌 Anda sekarang siap untuk terjun ke dunia penciptaan seni AI yang menarik. Tapi mengapa repot dengan instalasi jika Anda bisa langsung mulai menciptakan? 🤔

Di RunComfy, kami telah mempermudah Anda untuk menggunakan ComfyUI online tanpa setup apa pun. Layanan ComfyUI Online kami sudah dimuat dengan lebih dari 200 node dan model populer, serta lebih dari 50 alur kerja menakjubkan untuk menginspirasi kreasi Anda.

🌟 Apakah Anda pemula atau seniman AI berpengalaman, RunComfy memiliki semua yang Anda butuhkan untuk mewujudkan visi artistik Anda. 💡 Jangan tunggu lebih lama lagi – coba ComfyUI Online sekarang dan rasakan kekuatan penciptaan seni AI di ujung jari Anda! 🚀

RunComfy

© Hak Cipta 2024 RunComfy. Seluruh Hak Cipta Dilindungi.

RunComfy adalah yang terdepan ComfyUI platform, menawarkan ComfyUI online lingkungan dan layanan, bersama dengan workflow ComfyUI menampilkan visual yang menakjubkan.