Updated: 5/21/2024
Привет, коллеги AI-художники! 👋 Добро пожаловать в наше дружественное для начинающих руководство по ComfyUI, невероятно мощному и гибкому инструменту для создания потрясающих произведений искусства, созданных ИИ. 🎨 В этом руководстве мы проведем вас через основы ComfyUI, изучим его функции и поможем вам раскрыть его потенциал, чтобы вывести ваше искусство на новый уровень. 🚀
Мы рассмотрим:
ComfyUI — это как волшебная палочка 🪄 для легкого создания потрясающих произведений искусства, созданных ИИ. В основе ComfyUI лежит графический интерфейс пользователя (GUI) на основе узлов, построенный на основе Stable Diffusion, передовой модели глубокого обучения, которая генерирует изображения из текстовых описаний. 🌟 Но что делает ComfyUI действительно особенным, так это то, как он позволяет художникам, таким как вы, раскрыть свою креативность и воплотить в жизнь свои самые смелые идеи.
Представьте себе цифровое полотно, на котором вы можете создавать свои уникальные рабочие процессы генерации изображений, соединяя различные узлы, каждый из которых представляет собой определенную функцию или операцию. 🧩 Это как создание визуального рецепта для ваших шедевров, созданных ИИ!
Хотите создать изображение с нуля, используя текстовый запрос? Для этого есть узел! Нужно применить определенный семплер или настроить уровень шума? Просто добавьте соответствующие узлы и наблюдайте за магией. ✨
Но вот что самое лучшее: ComfyUI разбивает рабочий процесс на перестраиваемые элементы, давая вам свободу создавать свои собственные рабочие процессы, адаптированные к вашему художественному видению. 🖼️ Это как иметь персонализированный набор инструментов, который адаптируется к вашему творческому процессу.
AUTOMATIC1111 — это стандартный GUI для Stable Diffusion. Так стоит ли использовать ComfyUI вместо него? Давайте сравним:
✅ Преимущества использования ComfyUI:
❌ Недостатки использования ComfyUI:
Мы считаем, что лучший способ изучить ComfyUI — это погрузиться в примеры и испытать его на практике. 🙌 Именно поэтому мы создали это уникальное руководство, которое выделяется среди других. В этом руководстве вы найдете подробное пошаговое руководство, которое вы можете следовать.
Но вот что самое лучшее: 🌟 Мы интегрировали ComfyUI прямо в эту веб-страницу! Вы сможете взаимодействовать с примерами ComfyUI в реальном времени по мере прохождения руководства.🌟 Давайте начнем!
Начнем с самого простого случая: генерация изображения из текста. Нажмите Queue Prompt, чтобы запустить рабочий процесс. После короткого ожидания вы увидите свое первое сгенерированное изображение! Чтобы проверить свою очередь, просто нажмите View Queue.
Вот стандартный рабочий процесс текст-в-изображение, который вы можете попробовать:
Рабочий процесс ComfyUI состоит из двух основных строительных блоков: Узлы и Края.
Сначала выберите модель Stable Diffusion Checkpoint в узле Load Checkpoint. Нажмите на имя модели, чтобы просмотреть доступные модели. Если нажатие на имя модели не приводит к результату, возможно, вам потребуется загрузить пользовательскую модель.
Вы увидите два узла с меткой CLIP Text Encode (Prompt). Верхний запрос подключен к положительному входу узла KSampler, а нижний запрос подключен к отрицательному входу. Поэтому введите свой положительный запрос в верхний узел, а отрицательный запрос в нижний.
Узел CLIP Text Encode преобразует запрос в токены и кодирует их в встраивания с помощью текстового кодировщика.
💡 Совет: Используйте синтаксис (keyword:weight), чтобы контролировать вес ключевого слова, например, (keyword:1.2), чтобы увеличить его эффект, или (keyword:0.8), чтобы уменьшить его.
Нажмите Queue Prompt, чтобы запустить рабочий процесс. После короткого ожидания ваше первое изображение будет сгенерировано!
Сила ComfyUI заключается в его настраиваемости. Понимание того, что делает каждый узел, позволяет адаптировать их к вашим потребностям. Но прежде чем углубляться в детали, давайте рассмотрим процесс Stable Diffusion, чтобы лучше понять, как работает ComfyUI.
Процесс Stable Diffusion можно резюмировать в трех основных шагах:
Теперь, когда у нас есть общее представление о процессе Stable Diffusion, давайте углубимся в ключевые компоненты и узлы в ComfyUI, которые делают этот процесс возможным.
Узел Load Checkpoint в ComfyUI важен для выбора модели Stable Diffusion. Модель Stable Diffusion состоит из трех основных компонентов: MODEL, CLIP и VAE. Давайте рассмотрим каждый компонент и его связь с соответствующими узлами в ComfyUI.
Важно отметить, что VAE является отдельным компонентом от языковой модели CLIP. В то время как CLIP фокусируется на обработке текстовых запросов, VAE занимается преобразованием между пиксельным и латентным пространствами.
Узел CLIP Text Encode в ComfyUI отвечает за прием запросов, предоставленных пользователем, и их передачу в языковую модель CLIP. CLIP — это мощная языковая модель, которая понимает семантическое значение слов и может связывать их с визуальными концепциями. Когда запрос вводится в узел CLIP Text Encode, он проходит процесс преобразования, в котором каждое слово преобразуется в встраивания. Эти встраивания представляют собой высокоразмерные векторы, которые захватывают семантическую информацию слов. Преобразуя запросы в встраивания, CLIP позволяет MODEL генерировать изображения, которые точно отражают значение и намерение данных запросов.
В процессе текст-в-изображение генерация начинается с случайного изображения в латентном пространстве. Это случайное изображение служит начальным состоянием для работы MODEL. Размер латентного изображения пропорционален фактическому размеру изображения в пиксельном пространстве. В ComfyUI вы можете настроить высоту и ширину латентного изображения, чтобы контролировать размер сгенерированного изображения. Кроме того, вы можете установить размер партии, чтобы определить количество изображений, генерируемых за один запуск.
Оптимальные размеры латентных изображений зависят от используемой модели Stable Diffusion. Для моделей SD v1.5 рекомендованные размеры составляют 512x512 или 768x768, а для моделей SDXL оптимальный размер составляет 1024x1024. ComfyUI предлагает ряд общих соотношений сторон, таких как 1:1 (квадрат), 3:2 (пейзаж), 2:3 (портрет), 4:3 (пейзаж), 3:4 (портрет), 16:9 (широкий экран) и 9:16 (вертикальный). Важно отметить, что ширина и высота латентного изображения должны быть кратны 8, чтобы обеспечить совместимость с архитектурой модели.
VAE (Variational AutoEncoder) — это ключевой компонент модели Stable Diffusion, который отвечает за преобразование изображений между пиксельным пространством и латентным пространством. Он состоит из двух основных частей: Image Encoder и Image Decoder.
Image Encoder принимает изображение в пиксельном пространстве и сжимает его в низкоразмерное латентное представление. Этот процесс сжатия значительно уменьшает размер данных, позволяя более эффективно обрабатывать и хранить их. Например, изображение размером 512x512 пикселей может быть сжато до латентного представления размером 64x64.
С другой стороны, Image Decoder, также известный как VAE Decoder, отвечает за восстановление изображения из латентного представления обратно в пиксельное пространство. Он принимает сжатое латентное представление и расширяет его, чтобы сгенерировать окончательное изображение.
Использование VAE предлагает несколько преимуществ:
Однако есть и некоторые недостатки:
Несмотря на эти ограничения, VAE играет важную роль в модели Stable Diffusion, обеспечивая эффективное преобразование между пиксельным пространством и латентным пространством, способствуя более быстрой генерации и более точному контролю над сгенерированными изображениями.
Узел KSampler в ComfyUI является сердцем процесса генерации изображений в Stable Diffusion. Он отвечает за удаление шума из случайного изображения в латентном пространстве, чтобы оно соответствовало запросу пользователя. KSampler использует технику, называемую обратной диффузией, где он итеративно уточняет латентное представление, удаляя шум и добавляя значимые детали на основе руководства от встраиваний CLIP.
Узел KSampler предлагает несколько параметров, которые позволяют пользователям точно настроить процесс генерации изображений:
Seed: Значение семени контролирует начальный шум и композицию окончательного изображения. Установив конкретное значение семени, пользователи могут добиться воспроизводимых результатов и поддерживать согласованность между несколькими генерациями.
Control_after_generation: Этот параметр определяет, как изменяется значение семени после каждой генерации. Он может быть установлен на случайное значение (генерировать новое случайное семя для каждого запуска), инкремент (увеличивать значение семени на 1), декремент (уменьшать значение семени на 1) или фиксированное значение (оставлять значение семени постоянным).
Step: Количество шагов выборки определяет интенсивность процесса уточнения. Более высокие значения приводят к меньшему количеству артефактов и более детализированным изображениям, но также увеличивают время генерации.
Sampler_name: Этот параметр позволяет пользователям выбрать конкретный алгоритм выборки, используемый узлом KSampler. Различные алгоритмы выборки могут давать немного разные результаты и иметь разную скорость генерации.
Scheduler: Планировщик контролирует, как изменяется уровень шума на каждом шаге процесса удаления шума. Он определяет скорость удаления шума из латентного представления.
Denoise: Параметр denoise устанавливает количество начального шума, которое должно быть удалено в процессе удаления шума. Значение 1 означает, что весь шум будет удален, что приведет к чистому и детализированному изображению.
Настраивая эти параметры, вы можете точно настроить процесс генерации изображений для достижения желаемых результатов.
На RunComfy мы создали идеальный онлайн-опыт ComfyUI специально для вас. Скажите прощай сложным установкам! 🎉 Попробуйте ComfyUI Online сейчас и раскройте свой художественный потенциал как никогда раньше! 🎉
Рабочий процесс Изображение в изображение генерирует изображение на основе запроса и входного изображения. Попробуйте сами!
Чтобы использовать рабочий процесс Изображение в изображение:
Для получения дополнительных премиум-рабочих процессов ComfyUI посетите наш 🌟Список рабочих процессов ComfyUI🌟
Благодаря своей экстремальной настраиваемости, ComfyUI является одним из первых GUI, поддерживающих модель Stable Diffusion XL. Давайте попробуем!
Чтобы использовать рабочий процесс ComfyUI SDXL:
Давайте углубимся в более сложные вещи: inpainting! Когда у вас есть отличное изображение, но вы хотите изменить определенные части, inpainting — это лучший метод. Попробуйте здесь!
Чтобы использовать рабочий процесс inpainting:
Outpainting — это еще одна захватывающая техника, которая позволяет вам расширять изображения за пределы их исходных границ. 🌆 Это как иметь бесконечное полотно для работы!
Чтобы использовать рабочий процесс ComfyUI Outpainting:
Для получения дополнительных премиум-рабочих процессов inpainting/outpainting посетите наш 🌟Список рабочих процессов ComfyUI🌟
Теперь давайте изучим ComfyUI upscale. Мы представим три основных рабочих процесса, которые помогут вам эффективно масштабировать.
Существует два основных метода масштабирования:
Два способа достижения этого:
Другой метод масштабирования — это Масштабирование латентного изображения, также известное как Hi-res Latent Fix Upscale, которое напрямую масштабирует в латентном пространстве.
Для получения дополнительных премиум-рабочих процессов восстановления/масштабирования посетите наш 🌟Список рабочих процессов ComfyUI🌟
Приготовьтесь вывести свое AI-искусство на новый уровень с помощью ControlNet, революционной технологии, которая меняет правила игры в генерации изображений!
ControlNet — это как волшебная палочка 🪄, которая дает вам беспрецедентный контроль над вашими сгенерированными ИИ изображениями. Он работает в паре с мощными моделями, такими как Stable Diffusion, улучшая их возможности и позволяя вам управлять процессом создания изображений, как никогда раньше!
Представьте, что вы можете указать края, позы людей, глубину или даже карты сегментации вашего желаемого изображения. 🌠 С ControlNet вы можете сделать именно это!
Если вы хотите углубиться в мир ControlNet и раскрыть его полный потенциал, у нас есть для вас подробное руководство по освоению ControlNet в ComfyUI! 📚 Оно наполнено пошаговыми руководствами и вдохновляющими примерами, чтобы помочь вам стать профессионалом в ControlNet. 🏆
ComfyUI Manager — это пользовательский узел, который позволяет вам устанавливать и обновлять другие пользовательские узлы через интерфейс ComfyUI. Вы найдете кнопку Manager в меню Queue Prompt.
Если рабочий процесс требует пользовательских узлов, которые вы не установили, выполните следующие шаги:
Дважды щелкните любую пустую область, чтобы вызвать меню для поиска узлов.
Встраивания, также известные как текстовая инверсия, являются мощной функцией в ComfyUI, которая позволяет вам вносить пользовательские концепции или стили в ваши сгенерированные ИИ изображения. 💡 Это как научить ИИ новому слову или фразе и ассоциировать их с определенными визуальными характеристиками.
Чтобы использовать встраивания в ComfyUI, просто введите "embedding:" за которым следует имя вашего встраивания в поле положительного или отрицательного запроса. Например:
embedding: BadDream
Когда вы используете этот запрос, ComfyUI будет искать файл встраивания с именем "BadDream" в папке ComfyUI > models > embeddings. 📂 Если он найдет совпадение, он применит соответствующие визуальные характеристики к вашему сгенерированному изображению.
Встраивания — это отличный способ персонализировать ваше ИИ-искусство и достичь определенных стилей или эстетики. 🎨 Вы можете создать свои собственные встраивания, обучив их на наборе изображений, представляющих желаемую концепцию или стиль.
Запоминание точных имен ваших встраиваний может быть хлопотным, особенно если у вас большая коллекция. 😅 Вот тут на помощь приходит пользовательский узел ComfyUI-Custom-Scripts!
Чтобы включить автозаполнение имен встраиваний:
Как только у вас будет установлен узел ComfyUI-Custom-Scripts, использование встраиваний станет более удобным. 😊 Просто начните вводить "embedding:" в поле запроса, и появится список доступных встраиваний. Вы можете выбрать нужное встраивание из списка, сэкономив время и усилия!
Знаете ли вы, что вы можете контролировать силу ваших встраиваний? 💪 Поскольку встраивания по сути являются ключевыми словами, вы можете применять к ним веса так же, как и к обычным ключевым словам в ваших запросах.
Чтобы настроить вес встраивания, используйте следующий синтаксис:
(embedding: BadDream:1.2)
В этом примере вес встраивания "BadDream" увеличен на 20%. Более высокие веса (например, 1.2) сделают встраивание более заметным, в то время как более низкие веса (например, 0.8) уменьшат его влияние. 🎚️ Это дает вам еще больше контроля над окончательным результатом!
LoRA, сокращение от Low-rank Adaptation, — это еще одна захватывающая функция в ComfyUI, которая позволяет вам модифицировать и точно настраивать ваши контрольные модели. 🎨 Это как добавление небольшой специализированной модели поверх вашей базовой модели для достижения определенных стилей или включения пользовательских элементов.
Модели LoRA компактны и эффективны, что делает их легкими в использовании и обмене. Они обычно используются для задач, таких как изменение художественного стиля изображения или внедрение конкретного человека или объекта в сгенерированный результат.
Когда вы применяете модель LoRA к контрольной модели, она модифицирует компоненты MODEL и CLIP, оставляя VAE (Вариационный Автоэнкодер) нетронутым. Это означает, что LoRA фокусируется на настройке содержания и стиля изображения без изменения его общей структуры.
Использование LoRA в ComfyUI просто. Давайте рассмотрим самый простой метод:
ComfyUI затем объединит контрольную модель и модель LoRA для создания изображения, которое отражает указанные запросы и включает модификации, введенные LoRA.
Но что, если вы хотите применить несколько LoRA к одному изображению? Не проблема! ComfyUI позволяет использовать две или более LoRA в одном рабочем процессе текст-в-изображение.
Процесс аналогичен использованию одной LoRA, но вам нужно будет выбрать несколько моделей LoRA вместо одной. ComfyUI применит LoRA последовательно, что означает, что каждая LoRA будет строиться на модификациях, введенных предыдущей.
Это открывает мир возможностей для комбинирования различных стилей, элементов и модификаций в ваших сгенерированных ИИ изображениях. 🌍💡 Экспериментируйте с разными комбинациями LoRA, чтобы достичь уникальных и креативных результатов!
Поздравляем с завершением руководства для начинающих по ComfyUI! 🙌 Теперь вы готовы погрузиться в захватывающий мир создания ИИ-искусства. Но зачем мучиться с установкой, если можно начать творить прямо сейчас? 🤔
На RunComfy мы упростили для вас использование ComfyUI онлайн без какой-либо настройки. Наш сервис ComfyUI Online загружен более чем 200 популярными узлами и моделями, а также более чем 50 потрясающими рабочими процессами, чтобы вдохновить ваши творения.
🌟 Независимо от того, являетесь ли вы новичком или опытным AI-художником, RunComfy имеет всё необходимое, чтобы воплотить ваши художественные видения в жизнь. 💡 Не ждите больше — попробуйте ComfyUI Online сейчас и ощутите мощь создания ИИ-искусства у себя под рукой! 🚀
© Авторское право 2024 RunComfy. Все права защищены.