Workflow ComfyUI Vid2Vid, dibuat oleh YVANN, memperkenalkan dua alur kerja yang berbeda untuk mencapai animasi berkualitas tinggi dan profesional.
Workflow ini meningkatkan kreativitas dengan fokus pada komposisi dan masking video asli Anda.
Pilih model yang sesuai untuk animasi Anda. Ini termasuk memilih model checkpoint, model VAE (Variational Autoencoder), dan model LoRA (Low-Rank Adaptation). Model-model ini sangat penting untuk mendefinisikan kemampuan dan gaya animasi Anda.
Node Input Video bertanggung jawab untuk mengimpor file video yang akan digunakan untuk animasi. Node tersebut membaca video dan mengubahnya menjadi frame individu, yang kemudian diproses pada langkah-langkah berikutnya. Ini memungkinkan pengeditan dan peningkatan secara rinci frame-by-frame.
Remove Background (Auto Masking) memisahkan subjek dari latar belakang menggunakan teknik masking otomatis. Ini melibatkan model yang mendeteksi dan memisahkan subjek dari latar belakang, menciptakan masker biner. Langkah ini sangat penting untuk memastikan bahwa subjek dapat dimanipulasi secara independen dari latar belakang.
Langkah ini memungkinkan penyempurnaan masker yang dibuat pada langkah sebelumnya. Anda dapat secara manual memasker area tertentu menggunakan perangkat lunak lain atau mengandalkan fitur mask otomatis 'Segment Anything' dari ComfyUI.
Versi default menggunakan masker manual. Jika Anda ingin mencoba yang otomatis, silakan lewati grup masker manual dan aktifkan grup masker otomatis. Selain itu, hubungkan MASK dari 'GroundingDinoSAM' (mask otomatis) ke 'GrowMaskWithBlur' alih-alih menghubungkan 'ImageToMask' (masker manual) ke 'GrowMaskWithBlur'.
Transform Mask mengubah masker menjadi gambar dan memungkinkan penyesuaian tambahan seperti menambahkan blur pada masker asli. Ini membantu melunakkan tepi dan membuat masker menyatu lebih alami dengan sisa gambar.
Masukkan prompt tekstual untuk memandu proses animasi. Prompt dapat menggambarkan gaya yang diinginkan, penampilan, atau tindakan subjek. Ini sangat penting untuk mendefinisikan arah kreatif animasi, memastikan bahwa output akhir sesuai dengan gaya artistik yang diinginkan.
Node AnimateDiff menciptakan animasi yang mulus dengan mengidentifikasi perbedaan antara frame berturut-turut dan menerapkan perubahan ini secara bertahap. Ini membantu mempertahankan koherensi gerakan dan mengurangi perubahan mendadak dalam animasi, menghasilkan tampilan yang lebih halus dan alami.
Node IPAdapter menyesuaikan gambar input agar sesuai dengan gaya atau fitur output yang diinginkan. Ini termasuk tugas seperti pewarnaan dan transfer gaya, memastikan bahwa setiap frame animasi mempertahankan tampilan dan nuansa yang konsisten.
Menggunakan ControlNet - v1.1 - Instruct Pix2Pix Version model meningkatkan model difusi dengan memungkinkan mereka memproses kondisi input tambahan (misalnya, peta tepi, peta segmentasi). Ini memfasilitasi pembuatan teks-ke-gambar dengan mengendalikan model pralatih ini dengan kondisi tugas tertentu secara end-to-end, memungkinkan pembelajaran yang kuat bahkan dengan dataset yang lebih kecil.
Pada langkah Render, frame yang telah diproses dikompilasi menjadi output video akhir. Langkah ini memastikan bahwa semua frame individu digabungkan dengan mulus menjadi animasi yang koheren, siap untuk diekspor dan digunakan lebih lanjut.
Ini melibatkan penggabungan subjek yang dianimasikan dengan latar belakang. Anda dapat menambahkan latar belakang statis atau dinamis ke animasi, memastikan bahwa subjek berintegrasi dengan mulus dengan latar belakang baru untuk menciptakan produk akhir yang menarik secara visual.
Dengan menggunakan workflow ComfyUI Vid2Vid Bagian1, Anda dapat membuat animasi yang rumit dengan kontrol yang tepat atas setiap aspek proses, mulai dari komposisi dan masking hingga rendering akhir.
© Hak Cipta 2024 RunComfy. Seluruh Hak Cipta Dilindungi.