O fluxo de trabalho ComfyUI Vid2Vid, criado por , introduz dois fluxos de trabalho distintos para alcançar animações de alta qualidade e profissionais.
Este fluxo de trabalho aprimora a criatividade ao focar na composição e mascaramento do seu vídeo original.
Selecione os modelos apropriados para sua animação. Isso inclui escolher o modelo de checkpoint, modelo VAE (Variational Autoencoder) e modelo LoRA (Low-Rank Adaptation). Esses modelos são cruciais para definir as capacidades e o estilo da sua animação.
O nó Input Video é responsável por importar o arquivo de vídeo que será usado para a animação. O nó lê o vídeo e o converte em quadros individuais, que são processados em etapas subsequentes. Isso permite uma edição e aprimoramento detalhados quadro a quadro.
Remover Fundo (Mascaramento Automático) isola o sujeito do fundo usando uma técnica de mascaramento automatizada. Isso envolve modelos que detectam e separam o sujeito em primeiro plano do fundo, criando uma máscara binária. Esta etapa é crucial para garantir que o sujeito possa ser manipulado independentemente do fundo.
Esta etapa permite o refinamento da máscara criada na etapa anterior. Você pode mascarar manualmente áreas específicas usando outro software ou contar com o recurso de máscara automatizada 'Segment Anything' do ComfyUI.
A versão padrão usa uma máscara manual. Se você quiser tentar a automática, ignore o grupo de máscara manual e habilite o grupo de máscara automática. Além disso, conecte a MÁSCARA de 'GroundingDinoSAM' (máscara automática) a 'GrowMaskWithBlur' em vez de conectar 'ImageToMask' (máscara manual) a 'GrowMaskWithBlur'.
Transform Mask converte a máscara em uma imagem e permite ajustes adicionais, como adicionar desfoque à máscara original. Isso ajuda a suavizar as bordas e fazer com que a máscara se misture mais naturalmente com o restante da imagem.
Insira prompts textuais para guiar o processo de animação. O prompt pode descrever o estilo desejado, aparência ou ações do sujeito. É crucial para definir a direção criativa da animação, garantindo que o resultado final coincida com o estilo artístico imaginado.
O nó AnimateDiff cria animações suaves identificando diferenças entre quadros consecutivos e aplicando essas mudanças incrementalmente. Isso ajuda a preservar a coerência do movimento e reduzir mudanças abruptas na animação, resultando em uma aparência mais fluida e natural.
O nó IPAdapter adapta as imagens de entrada para alinhar com os estilos ou características desejados. Isso inclui tarefas como colorização e transferência de estilo, garantindo que cada quadro da animação mantenha uma aparência consistente.
Usando ControlNet - v1.1 - Instruct Pix2Pix Version model aprimora modelos de difusão permitindo que eles processem condições de entrada adicionais (por exemplo, mapas de borda, mapas de segmentação). Facilita a geração de texto-para-imagem controlando esses modelos pré-treinados com condições específicas de tarefa de maneira ponta a ponta, permitindo aprendizado robusto mesmo com conjuntos de dados menores.
Na etapa de Render, os quadros processados são compilados em uma saída final de vídeo. Esta etapa garante que todos os quadros individuais sejam combinados perfeitamente em uma animação coerente, pronta para exportação e uso posterior.
Isso envolve compor o sujeito animado com o fundo. Você pode adicionar um fundo estático ou dinâmico à animação, garantindo que o sujeito se integre suavemente com o novo fundo para criar um produto final visualmente atraente.
Ao utilizar o fluxo de trabalho ComfyUI Vid2Vid Parte1, você pode criar animações intrincadas com controle preciso sobre todos os aspectos do processo, desde a composição e mascaramento até a renderização final.
© Copyright 2024 RunComfy. Todos os Direitos Reservados.