Este flujo de trabajo está inspirado en con algunas modificaciones. Para más información, por favor visita su canal de YouTube.
Este flujo de trabajo te permite transformar videos estándar en encantadoras creaciones de anime japonés utilizando AnimateDiff, ControlNet e IPAdapter. Siéntete libre de experimentar con varios puntos de control, ajustes de LoRA e imágenes de referencia para el IPAdapter para crear tu estilo único. ¡Es una forma divertida y creativa de dar vida a tus videos en el mundo del anime!
Por favor, consulta los detalles sobre
ControlNet revoluciona la forma en que generamos imágenes al traer un nuevo nivel de control espacial a los modelos de difusión de texto a imagen. Esta arquitectura de red neuronal de vanguardia se asocia maravillosamente con gigantes como Stable Diffusion, aprovechando sus vastas bibliotecas, forjadas a partir de miles de millones de imágenes, para tejer matices espaciales directamente en la estructura de la creación de imágenes. Desde esbozar bordes hasta mapear posturas humanas, percepción de profundidad o segmentar imágenes, ControlNet te permite moldear las imágenes de maneras que van mucho más allá del alcance de simples indicaciones de texto.
En su esencia, ControlNet es ingeniosamente sencillo. Comienza protegiendo la integridad de los parámetros del modelo original, manteniendo intacto el entrenamiento base. Luego, ControlNet introduce un conjunto reflejado de las capas de codificación del modelo, pero con un giro: se entrenan utilizando "convoluciones cero". Estos ceros como punto de partida significan que las capas incorporan suavemente nuevas condiciones espaciales sin causar alboroto, asegurando que los talentos originales del modelo se conserven incluso cuando se embarcan en nuevos caminos de aprendizaje.
Tanto ControlNets como T2I-Adapters desempeñan roles cruciales en el condicionamiento de la generación de imágenes, y cada uno ofrece ventajas distintas. Los T2I-Adapters son reconocidos por su eficiencia, particularmente en términos de acelerar el proceso de generación de imágenes. A pesar de esto, los ControlNets no tienen igual en su capacidad para guiar intricadamente el proceso de generación, lo que los convierte en una herramienta poderosa para los creadores.
Considerando la superposición de funcionalidades entre muchos modelos de T2I-Adapter y ControlNet, nuestra discusión se centrará principalmente en los ControlNets. Sin embargo, vale la pena señalar que la plataforma RunComfy ha precargado varios modelos de T2I-Adapter para facilitar su uso. Para aquellos interesados en experimentar con T2I-Adapters, puedes cargar sin problemas estos modelos e integrarlos en tus proyectos.
Elegir entre modelos de ControlNet y T2I-Adapter en ComfyUI no afecta el uso de nodos de ControlNet o la consistencia del flujo de trabajo. Esta uniformidad asegura un proceso optimizado, permitiéndote aprovechar los beneficios únicos de cada tipo de modelo de acuerdo con las necesidades de tu proyecto.
3.4.1. Cargando el Nodo "Apply ControlNet"
Para comenzar, necesitarás cargar el nodo "Apply ControlNet" en tu ComfyUI. Este es tu primer paso hacia un viaje de creación de imágenes con doble condicionamiento, combinando elementos visuales con indicaciones textuales.
3.4.2. Entendiendo las Entradas del Nodo "Apply ControlNet"
Condicionamiento Positivo y Negativo: Estas son tus herramientas para dar forma a la imagen final: lo que debe abarcar y lo que debe evitar. Conéctalas a las ranuras "Positive prompt" y "Negative prompt" para sincronizarlas con la parte basada en texto de tu dirección creativa.
Seleccionando el Modelo ControlNet: Necesitarás vincular esta entrada a la salida del nodo "Load ControlNet Model". Aquí es donde decides si usar un modelo ControlNet o T2IAdaptor basado en los rasgos o estilos específicos que buscas. Si bien nos enfocamos en los modelos ControlNet, vale la pena mencionar algunos codiciados T2IAdaptors para una visión completa.
Preprocesando tu Imagen: Conecta tu imagen a un nodo "ControlNet Preprocessor", que es vital para garantizar que tu imagen esté lista para ControlNet. Es esencial hacer coincidir el preprocesador con tu modelo ControlNet. Este paso ajusta tu imagen original para que se ajuste perfectamente a las necesidades del modelo: redimensionando, recoloreando o aplicando los filtros necesarios, preparándola para su uso por parte de ControlNet.
3.4.3. Entendiendo las Salidas del Nodo "Apply ControlNet"
Después del procesamiento, el nodo "Apply ControlNet" te presenta dos salidas que reflejan la sofisticada interacción de ControlNet y tu entrada creativa: Condicionamiento Positivo y Negativo. Estas salidas guían el modelo de difusión dentro de ComfyUI, lo que conduce a tu siguiente elección: refinar la imagen usando el KSampler o sumergirte más profundamente al apilar más ControlNets para aquellos que buscan un detalle y una personalización sin igual.
3.4.4. Ajustando "Apply ControlNet" para Obtener los Mejores Resultados
Determinando la Fuerza: Esta configuración controla cuánto influye ControlNet en la imagen resultante. Un 1.0 completo significa que la entrada de ControlNet tiene las riendas, mientras que bajar a 0.0 permite que el modelo se ejecute sin la influencia de ControlNet.
Ajustando el Porcentaje de Inicio: Esto te dice cuándo ControlNet comienza a participar durante el proceso de difusión. Por ejemplo, un inicio del 20% significa que desde un quinto del camino, ControlNet comienza a dejar su huella.
Configurando el Porcentaje de Finalización: Este es el lado opuesto del Porcentaje de Inicio, marcando cuándo ControlNet se retira. Si lo configuras al 80%, la influencia de ControlNet se desvanece a medida que la imagen se acerca a sus etapas finales, sin ser afectada por ControlNet en el último tramo.
3.5.1. Modelo ControlNet: Openpose
Las opciones de preprocesador incluyen: Openpose o DWpose
3.5.2. Modelo ControlNet: Depth
Los modelos de profundidad utilizan una imagen 2D para inferir la profundidad, representándola como un mapa en escala de grises. Cada uno tiene sus fortalezas en términos de detalle o enfoque de fondo:
Preprocesadores a considerar: Depth_Midas, Depth_Leres, Depth_Zoe, Depth_Anything, MeshGraphormer_Hand_Refiner. Este modelo sobresale en robustez y compatibilidad con mapas de profundidad reales de motores de renderizado.
3.5.3. Modelo ControlNet: SoftEdge
ControlNet Soft Edge está diseñado para producir imágenes con bordes más suaves, mejorando los detalles mientras mantiene un aspecto natural. Utiliza redes neuronales de vanguardia para una manipulación refinada de imágenes, ofreciendo un control creativo extenso y una integración impecable.
En términos de robustez: SoftEdge_PIDI_safe > SoftEdge_HED_safe >> SoftEdge_PIDI > SoftEdge_HED
Para los resultados de más alta calidad: SoftEdge_HED > SoftEdge_PIDI > SoftEdge_HED_safe > SoftEdge_PIDI_safe
Como recomendación general, SoftEdge_PIDI es la opción preferida ya que típicamente entrega excelentes resultados.
Los preprocesadores incluyen: SoftEdge_PIDI, SoftEdge_PIDI_safe, SoftEdge_HED, SoftEdge_HED_safe.
3.5.4. Modelo ControlNet: Canny
El modelo Canny implementa la detección de bordes Canny para resaltar un amplio espectro de bordes dentro de las imágenes. Este modelo es excelente para mantener la integridad de los elementos estructurales mientras simplifica el aspecto general de la imagen, ayudando a crear arte estilizado o preparando imágenes para manipulación adicional.
Preprocesadores disponibles: Canny
3.5.5. Modelo ControlNet: Lineart
Los modelos Lineart son tus herramientas para transformar imágenes en dibujos lineales estilizados, adecuados para una variedad de aplicaciones artísticas:
Los preprocesadores disponibles pueden producir lineart detallado o más pronunciado (Lineart y Lineart_Coarse).
3.5.6. Modelo ControlNet: Tile
El modelo Tile Resample sobresale en resaltar detalles en las imágenes. Es especialmente efectivo cuando se usa junto con un ampliador para mejorar la resolución y el detalle de la imagen, a menudo aplicado para afilar y enriquecer texturas y elementos de la imagen.
Preprocesador recomendado: Tile
Incorporar múltiples ControlNets o T2I-Adapters permite la aplicación secuencial de diferentes tipos de condicionamiento a tu proceso de generación de imágenes. Por ejemplo, puedes combinar ControlNets Lineart y OpenPose para un detalle mejorado.
Lineart para la Forma del Objeto: Comienza integrando un ControlNet Lineart para agregar profundidad y detalle a objetos o elementos en tus imágenes. Este proceso implica preparar un mapa lineart o canny para los objetos que deseas incluir.
OpenPose para el Control de la Pose: Después del detallado lineart, utiliza el ControlNet OpenPose para dictar la pose de los individuos dentro de tu imagen. Necesitarás generar u obtener un mapa OpenPose que capture la pose deseada.
Aplicación Secuencial: Para combinar efectivamente estos efectos, vincula la salida del ControlNet Lineart al ControlNet OpenPose. Este método asegura que tanto la pose de los sujetos como las formas de los objetos se guíen simultáneamente durante el proceso de generación, creando un resultado que se alinee armoniosamente con todas las especificaciones de entrada.
Por favor, consulta los detalles sobre
© Derechos de autor 2024 RunComfy. Todos los derechos reservados.