Этот рабочий процесс вдохновлён с некоторыми модификациями. Для получения дополнительной информации, пожалуйста, посетите его YouTube канал.
Этот рабочий процесс позволяет преобразовывать стандартные видео в очаровательные японские аниме-создания с использованием AnimateDiff, ControlNet и IPAdapter. Экспериментируйте с различными контрольными точками, настройками LoRA и референсными изображениями для IPAdapter, чтобы создать свой уникальный стиль. Это весёлый и креативный способ оживить ваши видео в мире аниме!
Пожалуйста, ознакомьтесь с подробностями на
ControlNet революционизирует способ генерации изображений, предоставляя новый уровень пространственного контроля моделям диффузии текст-изображение. Эта передовая архитектура нейронной сети прекрасно сочетается с гигантами, такими как Stable Diffusion, используя их обширные библиотеки, созданные из миллиардов изображений, чтобы вплетать пространственные нюансы прямо в ткань создания изображений. От набросков краёв до картирования человеческих поз, восприятия глубины или сегментирования визуалов, ControlNet позволяет вам формировать изображения способами, которые выходят далеко за рамки простых текстовых подсказок.
В основе ControlNet лежит гениальная простота. Он начинает с сохранения целостности параметров оригинальной модели, сохраняя базовую тренировку в неприкосновенности. Затем ControlNet вводит зеркальный набор слоёв кодирования модели, но с изюминкой: они обучаются с использованием "нулевых свёрток". Эти нули в качестве начальной точки означают, что слои мягко внедряют новые пространственные условия, не вызывая шума, обеспечивая сохранение оригинальных талантов модели даже по мере того, как она вступает на новые пути обучения.
И ControlNets, и T2I-Adapters играют важную роль в кондиционировании генерации изображений, каждый предлагая свои преимущества. T2I-Adapters известны своей эффективностью, особенно в плане ускорения процесса генерации изображений. Несмотря на это, ControlNets непревзойдённы в своей способности детально направлять процесс генерации, делая их мощным инструментом для создателей.
Учитывая перекресток функциональностей между многими моделями T2I-Adapter и ControlNet, наше обсуждение будет в основном сосредоточено на ControlNets. Однако стоит отметить, что платформа RunComfy предварительно загрузила несколько моделей T2I-Adapter для удобства использования. Для тех, кто заинтересован в экспериментах с T2I-Adapters, вы можете легко загрузить эти модели и интегрировать их в свои проекты.
Выбор между моделями ControlNet и T2I-Adapter в ComfyUI не влияет на использование узлов ControlNet или на консистентность рабочего процесса. Это единство обеспечивает упрощённый процесс, позволяя вам использовать уникальные преимущества каждого типа модели в зависимости от потребностей вашего проекта.
3.4.1. Загрузка узла "Apply ControlNet"
Для начала вам нужно загрузить узел "Apply ControlNet" в ваш ComfyUI. Это ваш первый шаг к созданию изображений с двойным кондиционированием, объединяющим визуальные элементы с текстовыми подсказками.
3.4.2. Понимание входов узла "Apply ControlNet"
Позитивное и негативное кондиционирование: Это ваши инструменты для формирования финального изображения: что оно должно включать и что оно должно избегать. Подключите их к слотам "Positive prompt" и "Negative prompt", чтобы синхронизировать их с текстовой частью вашего творческого направления.
Выбор модели ControlNet: Вам нужно будет связать этот вход с выходом узла "Load ControlNet Model". Здесь вы решаете, использовать ли модель ControlNet или T2IAdaptor в зависимости от конкретных черт или стилей, которые вы хотите достичь. Хотя мы сосредотачиваемся на моделях ControlNet, стоит упомянуть некоторые популярные T2IAdaptors для полноты картины.
Предобработка вашего изображения: Подключите ваше изображение к узлу "ControlNet Preprocessor", что жизненно важно для обеспечения готовности вашего изображения к ControlNet. Важно подобрать предобработчик к вашей модели ControlNet. Этот шаг корректирует ваше исходное изображение под нужды модели: изменение размера, перекраска или применение необходимых фильтров, готовя его к использованию ControlNet.
3.4.3. Понимание выходов узла "Apply ControlNet"
После обработки узел "Apply ControlNet" предоставляет вам два выхода, отражающих сложное взаимодействие ControlNet и вашего творческого вклада: Позитивное и Негативное Кондиционирование. Эти выходы направляют модель диффузии в ComfyUI, приводя к вашему следующему выбору: уточнить изображение с помощью KSampler или углубиться дальше, добавляя больше ControlNets для тех, кто стремится к непревзойденной детализации и кастомизации.
3.4.4. Настройка "Apply ControlNet" для лучших результатов
Определение силы: Этот параметр контролирует, насколько сильно ControlNet влияет на итоговое изображение. Полное значение 1.0 означает, что вход ControlNet имеет полный контроль, в то время как снижение до 0.0 позволяет модели работать без влияния ControlNet.
Настройка начального процента: Это указывает, когда ControlNet начинает вносить свой вклад в процесс диффузии. Например, начало с 20% означает, что с одной пятой пути ControlNet начинает оказывать влияние.
Настройка конечного процента: Это обратная сторона начального процента, указывающая, когда ControlNet прекращает своё влияние. Если вы установите его на 80%, влияние ControlNet исчезнет, когда изображение приближается к финальной стадии, оставаясь нетронутым ControlNet на последнем этапе.
3.5.1. Модель ControlNet: Openpose
Варианты предобработчика включают: Openpose или DWpose
3.5.2. Модель ControlNet: Depth
Модели глубины используют 2D-изображение для оценки глубины, представляя её в виде градационной карты. Каждая из них имеет свои сильные стороны в плане детализации или фокусировки на фоне:
Рекомендуемые предобработчики: Depth_Midas, Depth_Leres, Depth_Zoe, Depth_Anything, MeshGraphormer_Hand_Refiner. Эта модель отличается надёжностью и совместимостью с реальными картами глубины от рендеринг-движков.
3.5.3. Модель ControlNet: SoftEdge
ControlNet Soft Edge разработан для создания изображений с мягкими краями, улучшая детали при сохранении естественного вида. Он использует передовые нейронные сети для тонкой манипуляции изображениями, предлагая широкий творческий контроль и безупречную интеграцию.
По надёжности: SoftEdge_PIDI_safe > SoftEdge_HED_safe >> SoftEdge_PIDI > SoftEdge_HED
Для наивысшего качества результатов: SoftEdge_HED > SoftEdge_PIDI > SoftEdge_HED_safe > SoftEdge_PIDI_safe
В общем, рекомендуется использовать SoftEdge_PIDI, так как он обычно даёт отличные результаты.
Предобработчики включают: SoftEdge_PIDI, SoftEdge_PIDI_safe, SoftEdge_HED, SoftEdge_HED_safe.
3.5.4. Модель ControlNet: Canny
Модель Canny реализует обнаружение краёв по алгоритму Canny, чтобы выделить широкий спектр краёв в изображениях. Эта модель отлично подходит для сохранения целостности структурных элементов, упрощая общий вид изображения, помогая создавать стилизованное искусство или подготавливать изображения для дальнейшей обработки.
Доступные предобработчики: Canny
3.5.5. Модель ControlNet: Lineart
Модели Lineart предназначены для преобразования изображений в стилизованные линейные рисунки, подходящие для различных художественных приложений:
Доступные предобработчики могут создавать как детализированные, так и более выраженные линейные рисунки (Lineart и Lineart_Coarse).
3.5.6. Модель ControlNet: Tile
Модель Tile Resample превосходно выделяет детали в изображениях. Она особенно эффективна при использовании вместе с увеличителем для повышения разрешения и детализации изображения, часто применяется для улучшения текстур и элементов изображения.
Рекомендуемый предобработчик: Tile
Интеграция нескольких ControlNet или T2I-Adapters позволяет последовательно применять различные типы кондиционирования к процессу генерации изображений. Например, вы можете комбинировать Lineart и OpenPose ControlNets для улучшенной детализации.
Lineart для формы объекта: Начните с интеграции Lineart ControlNet, чтобы добавить глубину и детали объектам или элементам на ваших изображениях. Этот процесс включает подготовку линейного или канни-карты для объектов, которые вы хотите включить.
OpenPose для управления позами: После детализации с использованием Lineart, используйте OpenPose ControlNet для задания позы людей на вашем изображении. Вам нужно будет создать или получить карту OpenPose, которая захватывает желаемую позу.
Последовательное применение: Для эффективного комбинирования этих эффектов, свяжите выход из Lineart ControlNet с OpenPose ControlNet. Этот метод обеспечивает, что как поза субъектов, так и формы объектов одновременно направляются во время процесса генерации, создавая результат, который гармонично соответствует всем входным спецификациям.
Пожалуйста, ознакомьтесь с подробностями на
© Авторское право 2024 RunComfy. Все права защищены.