El flujo de trabajo ComfyUI Vid2Vid, creado por , presenta dos flujos de trabajo distintos para lograr animaciones de alta calidad y profesionales.
Este flujo de trabajo mejora la creatividad al centrarse en la composición y el enmascaramiento de tu video original.
Selecciona los modelos apropiados para tu animación. Esto incluye elegir el modelo de checkpoint, el modelo VAE (Variational Autoencoder) y el modelo LoRA (Low-Rank Adaptation). Estos modelos son cruciales para definir las capacidades y el estilo de tu animación.
El nodo Input Video es responsable de importar el archivo de video que se utilizará para la animación. El nodo lee el video y lo convierte en fotogramas individuales, que luego se procesan en pasos posteriores. Esto permite una edición y mejora detallada fotograma a fotograma.
Remove Background (Auto Masking) aísla el sujeto del fondo utilizando una técnica de enmascaramiento automatizada. Esto implica modelos que detectan y separan el sujeto del primer plano del fondo, creando una máscara binaria. Este paso es crucial para garantizar que el sujeto pueda ser manipulado independientemente del fondo.
Este paso permite la refinación de la máscara creada en el paso anterior. Puedes enmascarar áreas específicas manualmente usando otro software o confiar en la función de máscara automatizada 'Segment Anything' de ComfyUI.
La versión predeterminada usa una máscara manual. Si deseas probar la automática, por favor omite el grupo de máscara manual y habilita el grupo de máscara automática. Además, conecta la MÁSCARA de 'GroundingDinoSAM' (máscara automática) a 'GrowMaskWithBlur' en lugar de conectar 'ImageToMask' (máscara manual) a 'GrowMaskWithBlur'.
Transform Mask convierte la máscara en una imagen y permite ajustes adicionales como agregar desenfoque a la máscara original. Esto ayuda a suavizar los bordes y hacer que la máscara se mezcle más naturalmente con el resto de la imagen.
Introduce prompts textuales para guiar el proceso de animación. El prompt puede describir el estilo deseado, la apariencia o las acciones del sujeto. Es crucial para definir la dirección creativa de la animación, asegurando que el resultado final coincida con el estilo artístico previsto.
El nodo AnimateDiff crea animaciones suaves identificando diferencias entre fotogramas consecutivos y aplicando estos cambios de manera incremental. Esto ayuda a preservar la coherencia del movimiento y reducir cambios bruscos en la animación, lo que conduce a una apariencia más fluida y natural.
El nodo IPAdapter adapta las imágenes de entrada para alinearlas con los estilos o características de salida deseados. Esto incluye tareas como la colorización y la transferencia de estilo, asegurando que cada fotograma de la animación mantenga una apariencia y sensación consistentes.
Usar ControlNet - v1.1 - Instruct Pix2Pix Version model mejora los modelos de difusión permitiéndoles procesar condiciones de entrada adicionales (por ejemplo, mapas de bordes, mapas de segmentación). Facilita la generación de texto a imagen controlando estos modelos preentrenados con condiciones específicas de la tarea de manera integral, permitiendo un aprendizaje robusto incluso con conjuntos de datos más pequeños.
En el paso de Render, los fotogramas procesados se compilan en una salida final de video. Este paso asegura que todos los fotogramas individuales se combinen sin problemas en una animación coherente, lista para exportar y usar ulteriormente.
Esto implica componer el sujeto animado con el fondo. Puedes agregar un fondo estático o dinámico a la animación, asegurando que el sujeto se integre suavemente con el nuevo fondo para crear un producto final visualmente atractivo.
Al utilizar el flujo de trabajo ComfyUI Vid2Vid Parte1, puedes crear animaciones intrincadas con control preciso sobre cada aspecto del proceso, desde la composición y el enmascaramiento hasta el renderizado final.
© Derechos de autor 2024 RunComfy. Todos los derechos reservados.