ComfyUI  >  Workflow  >  Transfer Gaya Konsisten dengan Unsampling

Transfer Gaya Konsisten dengan Unsampling

Alur kerja ini mengeksplorasi Unsampling sebagai metode untuk transfer gaya konsisten dalam Stable Diffusion. Dengan mengendalikan noise laten, Unsampling memastikan bahwa gerakan dan komposisi video tetap terjaga, membuat transisi gaya menjadi lebih halus dan konsisten!

Alur Kerja ComfyUI Unsampling

Consistent Style Transfer with Unsampling in Stable Diffusion
Ingin menjalankan workflow ini?
  • Workflow yang sepenuhnya operasional
  • Tidak ada node atau model yang hilang
  • Tidak perlu pengaturan manual
  • Menampilkan visual yang menakjubkan

Contoh ComfyUI Unsampling

Deskripsi ComfyUI Unsampling

Panduan Unsampling ini, yang ditulis oleh Inner-Reflections, sangat berkontribusi dalam mengeksplorasi metode Unsampling untuk mencapai transfer gaya video yang sangat konsisten.

1. Pengantar: Pengendalian Noise Laten dengan Unsampling

Noise Laten adalah dasar dari semua yang kita lakukan dengan Stable Diffusion. Sangat menakjubkan untuk mundur sejenak dan memikirkan apa yang bisa kita capai dengan ini. Namun secara umum kita terpaksa menggunakan angka acak untuk menghasilkan noise. Bagaimana jika kita bisa mengendalikannya?

Saya bukan yang pertama menggunakan Unsampling. Ini telah ada sejak lama dan digunakan dalam berbagai cara. Namun hingga saat ini saya umumnya tidak puas dengan hasilnya. Saya telah menghabiskan beberapa bulan mencari pengaturan terbaik dan saya harap Anda menikmati panduan ini.

Dengan menggunakan proses sampling dengan AnimateDiff/Hotshot, kita dapat menemukan noise yang mewakili video asli kita dan karenanya membuat transfer gaya menjadi lebih mudah. Ini sangat membantu untuk menjaga konsistensi Hotshot mengingat jendela konteks 8 frame-nya.

Proses unsampling ini pada dasarnya mengubah video input kita menjadi noise laten yang mempertahankan gerakan dan komposisi asli. Kita kemudian dapat menggunakan noise representasional ini sebagai titik awal untuk proses difusi daripada noise acak. Ini memungkinkan AI untuk menerapkan gaya target sambil menjaga konsistensi temporal.

Panduan ini mengasumsikan Anda telah menginstal AnimateDiff dan/atau Hotshot. Jika belum, panduannya tersedia di sini:

AnimateDiff: https://civitai.com/articles/2379

Panduan Hotshot XL: https://civitai.com/articles/2601/

Tautan ke sumber daya - Jika Anda ingin memposting video di Civitai menggunakan alur kerja ini. https://civitai.com/models/544534

2. Persyaratan Sistem untuk Alur Kerja ini

Komputer Windows dengan kartu grafis NVIDIA yang memiliki setidaknya 12GB VRAM direkomendasikan. Pada platform RunComfy, gunakan mesin Medium (16GB VRAM) atau yang lebih tinggi. Proses ini tidak memerlukan lebih banyak VRAM daripada alur kerja AnimateDiff atau Hotshot standar, tetapi memerlukan waktu hampir dua kali lebih lama, karena pada dasarnya menjalankan proses difusi dua kali—sekali untuk upsampling dan sekali untuk resampling dengan gaya target.

3. Penjelasan Nodes dan Panduan Pengaturan

Node: Custom Sampler

Unsampling: Custom Sampler

Bagian utama dari ini adalah menggunakan Custom Sampler yang membagi semua pengaturan yang biasanya Anda lihat di KSampler biasa menjadi beberapa bagian:

Ini adalah node KSampler utama - untuk unsampling menambahkan noise/seed tidak memiliki efek (yang saya ketahui). CFG penting - secara umum semakin tinggi CFG pada langkah ini semakin mirip video dengan aslinya. CFG yang lebih tinggi memaksa unsampler untuk lebih sesuai dengan input.

Node: KSampler Select

Unsampling: KSampler Select

Yang paling penting adalah menggunakan sampler yang konvergen! Inilah mengapa kita menggunakan euler daripada euler a karena yang terakhir menghasilkan lebih banyak keacakan/ketidakstabilan. Samplers Ancestral yang menambahkan noise pada setiap langkah mencegah unsampling dari konvergen dengan bersih. Jika Anda ingin membaca lebih lanjut tentang ini saya selalu menemukan  berguna. @spacepxl di reddit menyarankan bahwa DPM++ 2M Karras mungkin sampler yang lebih akurat tergantung pada kasus penggunaan.

Node: Align Your Step Scheduler

Unsampling: Align Your Step Scheduler

Scheduler apa pun akan berfungsi dengan baik di sini - Align Your Steps (AYS) bagaimanapun mendapatkan hasil yang baik dengan 16 langkah sehingga saya memilih untuk menggunakan itu untuk mengurangi waktu komputasi. Lebih banyak langkah akan konvergen lebih penuh tetapi dengan hasil yang semakin berkurang.

Node: Flip Sigma

Unsampling: Flip Sigma

Flip Sigma adalah node ajaib yang menyebabkan unsampling terjadi! Dengan membalikkan jadwal sigma, kita membalikkan proses difusi untuk pergi dari gambar input yang bersih ke noise representasional.

Node: Prompt

Unsampling: Prompt

Prompting sangat penting dalam metode ini untuk beberapa alasan. Prompt yang baik dapat sangat meningkatkan koherensi video terutama semakin Anda ingin mendorong transformasi. Untuk contoh ini saya telah memberi makan kondisi yang sama untuk unsampler dan resampler. Ini tampaknya bekerja dengan baik secara umum - tidak ada yang menghentikan Anda dari menempatkan kondisi kosong di unsampler - saya menemukan ini membantu meningkatkan transfer gaya, mungkin dengan sedikit kehilangan konsistensi.

Node: Resampling

Unsampling: Resampling

Untuk resampling penting untuk mematikan penambahan noise (meskipun memiliki noise kosong dalam pengaturan sampel AnimateDiff memiliki efek yang sama - saya telah melakukan keduanya untuk alur kerja saya). Jika Anda menambahkan noise selama resampling Anda akan mendapatkan hasil yang tidak konsisten dan berisik, setidaknya dengan pengaturan default. Jika tidak saya sarankan memulai dengan CFG yang cukup rendah dikombinasikan dengan pengaturan ControlNet yang lemah karena itu tampaknya memberikan hasil yang paling konsisten sambil tetap memungkinkan prompt untuk mempengaruhi gaya.

Pengaturan Lainnya

Sisa pengaturan saya adalah preferensi pribadi. Saya telah menyederhanakan alur kerja ini sebanyak mungkin sambil tetap menyertakan komponen dan pengaturan kunci.

4. Informasi Alur Kerja

Alur kerja default menggunakan model SD1.5. Namun, Anda dapat beralih ke SDXL dengan hanya mengubah checkpoint, VAE, model AnimateDiff, model ControlNet, dan model jadwal langkah ke SDXL.

5. Catatan/Catatan Penting

  • Flashing - Jika Anda melihat laten yang didekodekan dan dipratinjau yang dibuat oleh unsampling dalam alur kerja saya, Anda akan melihat beberapa dengan kelainan warna yang jelas. Penyebab pastinya tidak jelas bagi saya, dan umumnya tidak mempengaruhi hasil akhir. Kelainan ini terutama terlihat dengan SDXL. Namun, mereka kadang-kadang dapat menyebabkan flashing dalam video Anda. Penyebab utama tampaknya terkait dengan ControlNets - jadi mengurangi kekuatannya dapat membantu. Mengubah prompt atau bahkan sedikit mengubah scheduler juga dapat membuat perbedaan. Saya masih mengalami masalah ini dari waktu ke waktu - jika Anda memiliki solusi, beri tahu saya!
    • DPM++ 2M kadang-kadang dapat meningkatkan flashing.

6. Ke Mana Pergi dari Sini?

Ini terasa seperti cara baru untuk mengendalikan konsistensi video, jadi ada banyak hal yang bisa dieksplorasi. Jika Anda ingin saran saya:

  • Cobalah menggabungkan/memasukkan noise dari beberapa video sumber.
  • Tambahkan IPAdapter untuk transformasi karakter yang konsisten.

Tentang Penulis

Inner-Reflections

  • https://x.com/InnerRefle11312
  • https://civitai.com/user/Inner_Reflections_AI

Ingin Lebih Banyak Workflow ComfyUI?

RunComfy

© Hak Cipta 2024 RunComfy. Seluruh Hak Cipta Dilindungi.

RunComfy adalah yang terdepan ComfyUI platform, menawarkan ComfyUI online lingkungan dan layanan, bersama dengan workflow ComfyUI menampilkan visual yang menakjubkan.