Este fluxo de trabalho utiliza AnimateDiff, ControlNet com foco na profundidade e Lora específicos para transformar habilmente vídeos em um Estilo de Arte Cerâmica. Você é encorajado a usar diferentes prompts para alcançar vários estilos de arte, transformando suas ideias em realidade.
AnimateDiff é projetado para animar imagens estáticas e prompts de texto em vídeos dinâmicos, aproveitando modelos Stable Diffusion e um módulo de movimento especializado. Ele automatiza o processo de animação prevendo transições perfeitas entre os quadros, tornando-o acessível a usuários sem habilidades de programação.
Para começar, selecione o módulo de movimento AnimateDiff desejado no menu suspenso model_name:
O Beta Schedule no AnimateDiff é crucial para ajustar o processo de redução de ruído durante a criação da animação.
Para as versões V3 e V2 do AnimateDiff, a configuração sqrt_linear é recomendada, embora experimentar com a configuração linear possa produzir efeitos únicos.
Para AnimateDiff SDXL, a configuração linear (AnimateDiff-SDXL) é aconselhada.
O recurso Motion Scale no AnimateDiff permite ajustar a intensidade do movimento em suas animações. Uma Motion Scale abaixo de 1 resulta em um movimento mais sutil, enquanto uma escala acima de 1 amplifica o movimento.
O Uniform Context Length no AnimateDiff é essencial para garantir transições perfeitas entre as cenas definidas pelo seu Batch Size. Ele age como um editor especialista, conectando cenas perfeitamente para uma narração fluida. Definir um Uniform Context Length mais longo garante transições mais suaves, enquanto um comprimento mais curto oferece mudanças de cena mais rápidas e distintas, benéficas para certos efeitos. O Uniform Context Length padrão é definido como 16.
Motion LoRAs, compatíveis apenas com AnimateDiff v2, introduzem uma camada adicional de movimento dinâmico da câmera. Alcançar o equilíbrio ideal com o peso LoRA, normalmente em torno de 0,75, garante um movimento suave da câmera, livre de distorções de fundo.
Além disso, encadear vários modelos Motion LoRA permite uma dinâmica de câmera complexa. Isso permite que os criadores experimentem e descubram a combinação ideal para sua animação, elevando-a a um nível cinematográfico.
ControlNet melhora a geração de imagens introduzindo controle espacial preciso para modelos de texto para imagem, permitindo que os usuários manipulem imagens de maneiras sofisticadas além de apenas prompts de texto, utilizando vastas bibliotecas de modelos como Stable Diffusion para tarefas intrincadas, como esboçar, mapear e segmentar elementos visuais.
A seguir está o fluxo de trabalho mais simples usando ControlNet.
Comece a criação da sua imagem carregando o Nó "Apply ControlNet" no ComfyUI, definindo o cenário para combinar elementos visuais e textuais em seu design.
Use Condicionamento Positivo e Negativo para moldar sua imagem, selecione um modelo ControlNet para definir características de estilo e pré-processe sua imagem para garantir que ela corresponda aos requisitos do modelo ControlNet, tornando-a pronta para transformação.
As saídas do nó orientam o modelo de difusão, oferecendo uma escolha entre refinar ainda mais a imagem ou adicionar mais ControlNets para detalhes aprimorados e personalização com base na interação do ControlNet com suas entradas criativas.
Controle a influência do ControlNet na sua imagem por meio de configurações como Determining Strength, Adjusting Start Percent e Setting End Percent para ajustar com precisão o processo criativo e o resultado da imagem.
Para informações mais detalhadas, confira
Este fluxo de trabalho é inspirado por com algumas modificações. Para mais informações, visite seu canal no YouTube.
© Copyright 2024 RunComfy. Todos os Direitos Reservados.