Ce workflow est inspiré par avec quelques modifications. Pour plus d'informations, veuillez visiter sa chaîne YouTube.
Ce workflow vous permet de transformer des vidéos standard en des créations d'anime japonais enchanteresses en utilisant AnimateDiff, ControlNet et IPAdapter. N'hésitez pas à expérimenter avec différents points de contrôle, paramètres LoRA et images de référence pour l'IPAdapter afin de créer votre style unique. C'est un moyen amusant et créatif de donner vie à vos vidéos dans l'univers de l'anime !
Veuillez consulter les détails sur
ControlNet révolutionne la façon dont nous générons des images en apportant un nouveau niveau de contrôle spatial aux modèles de diffusion de texte vers image. Cette architecture de réseau neuronal de pointe s'associe magnifiquement à des géants comme Stable Diffusion, exploitant leurs vastes bibliothèques, forgées à partir de milliards d'images, pour tisser des nuances spatiales directement dans la création d'images. Qu'il s'agisse d'esquisser des bords, de cartographier des postures humaines, d'obtenir une perception de la profondeur ou de segmenter des éléments visuels, ControlNet vous permet de façonner les images d'une manière qui va bien au-delà de simples invites textuelles.
Fondamentalement, ControlNet est ingénieusement simple. Il commence par préserver l'intégrité des paramètres du modèle original, en gardant l'entraînement de base intact. Ensuite, ControlNet introduit un ensemble miroir des couches d'encodage du modèle, mais avec une particularité : elles sont entraînées en utilisant des "convolutions nulles". Ces zéros comme point de départ signifient que les couches intègrent doucement de nouvelles conditions spatiales sans faire de remous, garantissant que les talents originaux du modèle sont préservés même lorsqu'il s'embarque sur de nouveaux chemins d'apprentissage.
Les ControlNets et les T2I-Adapters jouent tous deux un rôle crucial dans le conditionnement de la génération d'images, chacun offrant des avantages distincts. Les T2I-Adapters sont reconnus pour leur efficacité, en particulier pour accélérer le processus de génération d'images. Malgré cela, les ControlNets sont inégalés dans leur capacité à guider de manière détaillée le processus de génération, ce qui en fait un outil puissant pour les créateurs.
Compte tenu du chevauchement des fonctionnalités entre de nombreux modèles T2I-Adapter et ControlNet, notre discussion se concentrera principalement sur ControlNets. Cependant, il convient de noter que la plateforme RunComfy a préchargé plusieurs modèles T2I-Adapter pour faciliter leur utilisation. Pour ceux qui souhaitent expérimenter avec T2I-Adapters, vous pouvez charger facilement ces modèles et les intégrer dans vos projets.
Choisir entre les modèles ControlNet et T2I-Adapter dans ComfyUI n'affecte pas l'utilisation des noeuds ControlNet ou la cohérence du workflow. Cette uniformité garantit un processus rationalisé, vous permettant de tirer parti des avantages uniques de chaque type de modèle en fonction des besoins de votre projet.
3.4.1. Charger le noeud "Apply ControlNet"
Pour commencer, vous devrez charger le noeud "Apply ControlNet" dans votre ComfyUI. C'est votre première étape vers un processus de création d'images à double conditionnement, mélangeant des éléments visuels avec des invites textuelles.
3.4.2. Comprendre les entrées du noeud "Apply ControlNet"
Conditionnement positif et négatif : Ce sont vos outils pour façonner l'image finale, ce qu'elle doit inclure et ce qu'elle doit éviter. Connectez-les aux emplacements "Positive prompt" et "Negative prompt" pour les synchroniser avec la partie textuelle de votre direction créative.
Sélection du modèle ControlNet : Vous devrez relier cette entrée à la sortie du noeud "Load ControlNet Model". C'est là que vous décidez d'utiliser un modèle ControlNet ou T2IAdaptor en fonction des traits ou styles spécifiques que vous visez. Bien que nous nous concentrions sur les modèles ControlNet, il est intéressant de mentionner certains T2IAdaptors recherchés pour une vue d'ensemble complète.
Prétraitement de votre image : Connectez votre image à un noeud "ControlNet Preprocessor", qui est vital pour garantir que votre image est prête pour ControlNet. Il est essentiel de faire correspondre le préprocesseur à votre modèle ControlNet. Cette étape ajuste votre image d'origine pour qu'elle réponde parfaitement aux besoins du modèle, en la redimensionnant, en la recolorant ou en appliquant les filtres nécessaires, la préparant ainsi à être utilisée par ControlNet.
3.4.3. Comprendre les sorties du noeud "Apply ControlNet"
Après le traitement, le noeud "Apply ControlNet" vous présente deux sorties reflétant l'interaction sophistiquée de ControlNet et de votre apport créatif : Conditionnement positif et négatif. Ces sorties guident le modèle de diffusion dans ComfyUI, menant à votre prochain choix : affiner l'image en utilisant le KSampler ou plonger plus profondément en empilant plus de ControlNets pour ceux qui recherchent des détails et une personnalisation inégalés.
3.4.4. Régler "Apply ControlNet" pour de meilleurs résultats
Déterminer la force : Ce paramètre contrôle à quel point ControlNet influence l'image résultante. Un 1.0 complet signifie que l'entrée de ControlNet a les rênes, tandis que descendre à 0.0 permet au modèle de fonctionner sans l'influence de ControlNet.
Ajuster le pourcentage de départ : Cela vous indique quand ControlNet commence à intervenir pendant le processus de diffusion. Par exemple, un démarrage à 20% signifie qu'à partir d'un cinquième du chemin, ControlNet commence à laisser sa marque.
Définir le pourcentage de fin : C'est l'inverse du pourcentage de départ, marquant le moment où ControlNet se retire. Si vous le réglez à 80%, l'influence de ControlNet s'estompe à mesure que l'image approche de ses étapes finales, sans être touchée par ControlNet dans la dernière ligne droite.
3.5.1. Modèle ControlNet : Openpose
Les options de préprocesseur incluent : Openpose ou DWpose
3.5.2. Modèle ControlNet : Depth
Les modèles Depth utilisent une image 2D pour déduire la profondeur, la représentant sous forme de carte en niveaux de gris. Chacun a ses points forts en termes de détail ou de concentration sur l'arrière-plan :
Les préprocesseurs à considérer : Depth_Midas, Depth_Leres, Depth_Zoe, Depth_Anything, MeshGraphormer_Hand_Refiner. Ce modèle excelle en robustesse et en compatibilité avec les cartes de profondeur réelles des moteurs de rendu.
3.5.3. Modèle ControlNet : SoftEdge
ControlNet Soft Edge est conçu pour produire des images avec des bords plus doux, améliorant les détails tout en conservant un aspect naturel. Il utilise des réseaux de neurones de pointe pour une manipulation d'image raffinée, offrant un contrôle créatif étendu et une intégration parfaite.
En termes de robustesse : SoftEdge_PIDI_safe > SoftEdge_HED_safe >> SoftEdge_PIDI > SoftEdge_HED
Pour les résultats de la plus haute qualité : SoftEdge_HED > SoftEdge_PIDI > SoftEdge_HED_safe > SoftEdge_PIDI_safe
En règle générale, SoftEdge_PIDI est l'option par défaut car elle offre généralement d'excellents résultats.
Les préprocesseurs incluent : SoftEdge_PIDI, SoftEdge_PIDI_safe, SoftEdge_HED, SoftEdge_HED_safe.
3.5.4. Modèle ControlNet : Canny
Le modèle Canny implémente la détection de contours de Canny pour mettre en évidence un large éventail de contours dans les images. Ce modèle est excellent pour maintenir l'intégrité des éléments structurels tout en simplifiant l'apparence générale de l'image, aidant à créer des illustrations stylisées ou à préparer des images pour une manipulation supplémentaire.
Préprocesseurs disponibles : Canny
3.5.5. Modèle ControlNet : Lineart
Les modèles Lineart sont vos outils pour transformer des images en dessins au trait stylisés, adaptés à une variété d'applications artistiques :
Les préprocesseurs disponibles peuvent produire des dessins au trait détaillés ou plus prononcés (Lineart et Lineart_Coarse).
3.5.6. Modèle ControlNet : Tile
Le modèle Tile Resample excelle dans la mise en valeur des détails des images. Il est particulièrement efficace lorsqu'il est utilisé en tandem avec un outil d'upscaling pour améliorer la résolution et les détails de l'image, souvent appliqué pour affiner et enrichir les textures et les éléments de l'image.
Préprocesseur recommandé : Tile
L'intégration de plusieurs ControlNets ou T2I-Adapters permet l'application séquentielle de différents types de conditionnement à votre processus de génération d'images. Par exemple, vous pouvez combiner les ControlNets Lineart et OpenPose pour des détails améliorés.
Lineart pour la forme des objets : Commencez par intégrer un ControlNet Lineart pour ajouter de la profondeur et des détails aux objets ou éléments de vos images. Ce processus implique la préparation d'une carte de trait ou de contour pour les objets que vous souhaitez inclure.
OpenPose pour le contrôle de la pose : Après les détails du trait, utilisez le ControlNet OpenPose pour dicter la pose des individus dans votre image. Vous devrez générer ou acquérir une carte OpenPose qui capture la pose souhaitée.
Application séquentielle : Pour combiner efficacement ces effets, liez la sortie du ControlNet Lineart au ControlNet OpenPose. Cette méthode garantit que la pose des sujets et les formes des objets sont simultanément guidées pendant le processus de génération, créant un résultat qui s'aligne harmonieusement avec toutes les spécifications d'entrée.
Veuillez consulter les détails sur
© Droits d'auteur 2024 RunComfy. Tous droits réservés.