ComfyUI  >  İş Akışları  >  AnimateDiff + ControlNet + AutoMask | Comic Style

AnimateDiff + ControlNet + AutoMask | Comic Style

Bu ComfyUI iş akışında, videoları sorunsuz bir şekilde yeniden şekillendirmek için Animatediff, ControlNet (Derinlik ve OpenPose özellikli) ve Auto Mask gibi özel düğümler kullanıyoruz. Bu süreç, gerçekçi karakterleri animeye dönüştürürken orijinal arka planları titizlikle korur.

ComfyUI Vid2Vid İş Akışı

ComfyUI AnimateDiff, ControlNet and Auto Mask Workflow
Bu iş akışını çalıştırmak ister misiniz?
  • Tam işlevsel iş akışları
  • Eksik düğüm veya model yok
  • Manuel kurulum gerekmiyor
  • Çarpıcı görseller sunar

ComfyUI Vid2Vid Örnekler

ComfyUI Vid2Vid Açıklama

1. ComfyUI AnimateDiff, ControlNet ve Auto Mask Workflow

Bu ComfyUI iş akışı, karakterleri anime tarzına dönüştürürken orijinal arka planları korumaya yönelik güçlü bir video yeniden şekillendirme yaklaşımı sunar. Bu dönüşüm, AnimateDiff, ControlNet ve Auto Mask gibi birkaç önemli bileşen tarafından desteklenmektedir.

AnimateDiff, animasyonlarda tutarlı bir bağlamın korunmasını sağlayan diferansiyel animasyon teknikleri için tasarlanmıştır. Bu bileşen, yeniden şekillendirilen video içeriğinde geçişleri yumuşatmaya ve hareketin akıcılığını artırmaya odaklanır.

ControlNet, insan pozlarının doğru bir şekilde çoğaltılması ve manipüle edilmesinde kritik bir rol oynar. Gelişmiş poz tahmininden yararlanarak, karakterlerin orijinal pozlarını korurken anime formlarına dönüştürülmelerini kolaylaştırır.

Auto Mask, arka planlarından karakterleri otomatik olarak ayırma konusunda yeteneklidir. Bu teknoloji, video öğelerinin seçici bir şekilde yeniden şekillendirilmesine olanak tanır ve karakter dönüşümlerinin çevredeki ortamı değiştirmeden gerçekleştirilmesini sağlar, böylece orijinal arka planların bütünlüğü korunur.

Bu ComfyUI iş akışı, standart video içeriğini stilize edilmiş animasyonlara dönüştürerek, anime tarzı karakter oluşturmanın verimliliğine ve kalitesine odaklanır.

2. AnimateDiff Genel Bakış

2.1. AnimateDiff'e Giriş

AnimateDiff, statik görüntüleri ve metin istemlerini dinamik videolara dönüştürmek için tasarlanmış bir AI aracıdır. Bu teknoloji, Stable Diffusion modelleri ve özel bir hareket modülü kullanarak animasyon sürecini otomatikleştirir, kareler arasında sorunsuz geçişler tahmin eder ve kullanıcıların kodlama becerilerine veya bilgisayarla ilgili kaynaklara ihtiyaç duymadan erişilebilir hale getirir.

2.2. AnimateDiff'in Temel Özellikleri

2.2.1. Kapsamlı Model Desteği: AnimateDiff, AnimateDiff v1, v2, v3 for Stable Diffusion V1.5 ve AnimateDiff sdxl for Stable Diffusion SDXL gibi çeşitli sürümlerle uyumludur. Aynı anda birden fazla hareket modelinin kullanılmasına olanak tanır, karmaşık ve katmanlı animasyonlar oluşturulmasını sağlar.

2.2.2. Bağlam Yığın Boyutu Animasyon Uzunluğunu Belirler: AnimateDiff, bağlam yığın boyutunun ayarlanmasıyla sonsuz uzunlukta animasyonlar oluşturulmasına olanak tanır. Bu özellik, kullanıcıların animasyonların uzunluğunu ve geçişini kendi özel gereksinimlerine göre özelleştirmelerine olanak tanır ve son derece uyarlanabilir bir animasyon süreci sağlar.

2.2.3. Sorunsuz Geçişler İçin Bağlam Uzunluğu: AnimateDiff'teki Tekdüze Bağlam Uzunluğunun amacı, animasyonun farklı segmentleri arasında sorunsuz geçişler sağlamaktır. Tekdüze Bağlam Uzunluğunu ayarlayarak, kullanıcılar sahneler arasındaki geçiş dinamiklerini kontrol edebilirler—daha uzun uzunluklar daha yumuşak, daha sorunsuz geçişler için, daha kısa uzunluklar ise daha hızlı, daha belirgin değişiklikler için.

2.2.4. Hareket Dinamikleri: AnimateDiff v2'de, animasyonlara sinematik kamera hareketleri eklemek için uzmanlaşmış hareket LoRA'ları mevcuttur. Bu özellik, animasyonlara dinamik bir katman ekleyerek görsel çekiciliğini önemli ölçüde artırır.

2.2.5. Gelişmiş Destek Özellikleri: AnimateDiff, ControlNet, SparseCtrl ve IPAdapter gibi çeşitli araçlarla çalışacak şekilde tasarlanmıştır ve projelerinin yaratıcı olanaklarını genişletmeyi amaçlayan kullanıcılar için önemli avantajlar sunar.

3. ControlNet Genel Bakış

3.1. ControlNet'e Giriş

ControlNet, görüntü difüzyon modellerini koşullu girdilerle artırmayı amaçlayan bir çerçeve sunar ve görüntü sentezleme sürecini iyileştirmeyi ve yönlendirmeyi hedefler. Bunu, belirli bir difüzyon modelinin içindeki sinir ağı bloklarını iki sete çoğaltarak başarır: biri orijinal işlevselliği korumak için "kilitli" kalır, diğeri ise sağlanan belirli koşullara uyum sağlayarak "eğitilebilir" hale gelir. Bu çift yapı, geliştiricilerin OpenPose, Tile, IP-Adapter, Canny, Depth, LineArt, MLSD, Normal Map, Scribbles, Segmentation, Shuffle ve T2I Adapter gibi modelleri kullanarak çeşitli koşullu girdileri entegre etmelerine olanak tanır, böylece üretilen çıktıyı doğrudan etkiler. Bu mekanizma aracılığıyla ControlNet, geliştiricilere görüntü oluşturma sürecini kontrol etme ve manipüle etme konusunda güçlü bir araç sunar, difüzyon modelinin esnekliğini ve çeşitli yaratıcı görevlere uygulanabilirliğini artırır.

Ön İşlemciler ve Model Entegrasyonu

3.1.1. Ön İşlem Yapılandırması: ControlNet ile başlamak, uygun bir ön işlemci seçmeyi içerir. Ön işlemin etkisini görsel olarak anlamak için önizleme seçeneğinin etkinleştirilmesi önerilir. Ön işlemden sonra, iş akışı daha fazla işlem adımları için ön işlenmiş görüntüyü kullanmaya geçer.

3.1.2. Model Eşleştirme: Model seçme sürecini basitleştirerek, ControlNet modelleri, paylaşılan anahtar kelimelere dayalı olarak uygun ön işlemcilerle hizalayarak uyumluluğu sağlar ve sorunsuz bir entegrasyon süreci sağlar.

3.2. ControlNet'in Temel Özellikleri

ControlNet Modellerinin Derinlemesine Keşfi

3.2.1. OpenPose Paketi: İnsan pozlarının doğru bir şekilde tespit edilmesi için tasarlanmış olan OpenPose paketi, vücut pozları, yüz ifadeleri ve el hareketlerinin olağanüstü doğrulukla tespit edilmesi için modeller içerir. Çeşitli OpenPose ön işlemciler, temel poz analizinden yüz ve el nüanslarının ayrıntılı yakalanmasına kadar spesifik tespit gereksinimlerine göre uyarlanmıştır.

3.2.2. Tile Resample Modeli: Görüntü çözünürlüğünü ve ayrıntısını artıran Tile Resample modeli, bir yükseltme aracı ile birlikte kullanıldığında görüntü kalitesini zenginleştirmeyi amaçlar ve görsel bütünlüğü bozmadan.

3.2.3. IP-Adapter Modeli: Görüntülerin istem olarak yenilikçi kullanımını kolaylaştıran IP-Adapter, referans görüntülerden görsel öğeleri oluşturulan çıktılara entegre eder ve metinden görüntüye difüzyon yeteneklerini zenginleştirir.

3.2.4. Canny Edge Detector: Kenar tespit yetenekleriyle tanınan Canny modeli, görüntülerin yapısal özünü vurgular, temel bileşimlerini korurken yaratıcı görsel yeniden yorumlamalara olanak tanır.

3.2.5. Derinlik Algılama Modelleri: Çeşitli derinlik ön işlemcileri aracılığıyla ControlNet, görüntülerden derinlik ipuçlarını çıkarma ve uygulama konusunda ustadır, oluşturulan görsellerde katmanlı bir derinlik perspektifi sunar.

3.2.6. LineArt Modelleri: Görüntüleri sanatsal çizimlere dönüştürmek için LineArt ön işlemcileri, anime'den gerçekçi eskizlere kadar çeşitli sanatsal tercihlere hitap eder ve ControlNet, stilistik isteklerin geniş bir yelpazesini karşılar.

3.2.7. Scribbles İşleme: Scribble HED, Pidinet ve xDoG gibi ön işlemcilerle ControlNet, görüntüleri benzersiz karalama sanatına dönüştürür, kenar tespiti ve sanatsal yeniden yorumlama için çeşitli stiller sunar.

3.2.8. Segmentasyon Teknikleri: ControlNet'in segmentasyon yetenekleri, görüntü öğelerini doğru bir şekilde sınıflandırır, nesne kategorisine dayalı olarak kesin manipülasyon sağlar ve karmaşık sahne yapımları için idealdir.

3.2.9. Shuffle Modeli: Renk şeması inovasyonu için bir yöntem sunan Shuffle modeli, giriş görüntülerini rastgeleleştirerek yeni renk desenleri üretir, orijinali korurken yaratıcı bir şekilde değiştirir.

3.2.10. T2I Adapter Yenilikleri: T2I Adapter modelleri, Color Grid ve CLIP Vision Style gibi, ControlNet'i yeni yaratıcı alanlara taşır, renkleri ve stilleri harmanlayıp uyarlayarak, orijinalin renk şeması veya stilistik özelliklerine saygı gösteren görsel olarak etkileyici çıktılar üretir.

3.2.11. MLSD (Mobil Line Segment Detection): Düz çizgilerin tespitinde uzmanlaşmış olan MLSD, yapısal netlik ve hassasiyeti ön planda tutarak mimari ve iç tasarıma odaklanan projeler için değerlidir.

3.2.12. Normal Map İşleme: Yüzey yönelim verilerini kullanarak, Normal Map ön işlemcileri referans görüntülerin 3D yapısını yeniden oluşturur, ayrıntılı yüzey analiziyle oluşturulan içeriğin gerçekçiliğini artırır.

Daha Fazla ComfyUI Eğitimi

Daha Fazla ComfyUI İş Akışı mı İstiyorsunuz?

RunComfy

© Telif Hakkı 2024 RunComfy. Tüm Hakları Saklıdır.

RunComfy önde gelen ComfyUI platformudur, sunan ComfyUI online ortamı ve hizmetleri, yanı sıra ComfyUI iş akışları çarpıcı görseller sunan.