Updated: 5/16/2024
안녕하세요, AI 아티스트 여러분! 👋 놀라운 AI 생성 아트워크를 만들기 위한 강력하고 유연한 도구인 ComfyUI에 대한 초보자 친화적인 튜토리얼에 오신 것을 환영합니다. 🎨 이 가이드에서는 ComfyUI의 기본 사항을 살펴보고, 기능을 탐색하며, AI 아트를 한 단계 높은 수준으로 끌어올리는 잠재력을 발휘할 수 있도록 도와드리겠습니다. 🚀
다음 내용을 다룰 예정입니다:
ComfyUI는 마법의 지팡이 🪄처럼 손쉽게 멋진 AI 생성 아트워크를 만들어냅니다. ComfyUI의 핵심은 텍스트 설명에서 이미지를 생성하는 최첨단 딥러닝 모델인 Stable Diffusion 위에 구축된 노드 기반의 그래픽 사용자 인터페이스(GUI)입니다. 🌟 하지만 ComfyUI가 정말 특별한 이유는 아티스트인 여러분에게 창의성을 마음껏 발휘하고 가장 엉뚱한 아이디어를 현실로 만들 수 있는 힘을 준다는 점입니다.
디지털 캔버스에서 각각 특정 기능이나 작업을 나타내는 다양한 노드를 연결하여 자신만의 독특한 이미지 생성 워크플로우를 구축할 수 있다고 상상해 보세요. 🧩 마치 AI로 만든 걸작을 위한 시각적인 레시피를 만드는 것과 같죠!
텍스트 프롬프트를 사용하여 처음부터 이미지를 생성하고 싶으신가요? 이를 위한 노드가 있습니다! 특정 샘플러를 적용하거나 노이즈 레벨을 미세 조정해야 하나요? 해당 노드를 추가하기만 하면 마법이 펼쳐집니다. ✨
하지만 가장 좋은 점은 ComfyUI가 워크플로우를 재배열 가능한 요소로 분해하여 여러분의 예술적 비전에 맞춘 맞춤형 워크플로우를 만들 수 있는 자유를 준다는 것입니다. 🖼️ 마치 창작 과정에 맞춰 조정되는 개인화된 도구 모음을 갖는 것과 같죠.
AUTOMATIC1111은 Stable Diffusion의 기본 GUI입니다. 그렇다면 대신 ComfyUI를 사용해야 할까요? 비교해 보겠습니다:
✅ ComfyUI 사용의 이점:
❌ ComfyUI 사용의 단점:
ComfyUI를 배우는 가장 좋은 방법은 예제를 살펴보고 직접 경험하는 것이라고 생각합니다. 🙌 그래서 우리는 다른 튜토리얼과 차별화되는 이 독특한 튜토리얼을 만들었습니다. 이 튜토리얼에서는 따라 할 수 있는 자세한 단계별 가이드를 찾을 수 있습니다.
하지만 가장 좋은 점은 🌟 이 웹페이지에 ComfyUI를 직접 통합했다는 것입니다! 가이드를 진행하면서 실시간으로 ComfyUI 예제와 상호 작용할 수 있습니다.🌟 그럼 시작해 볼까요!
가장 간단한 경우인 텍스트에서 이미지를 생성하는 것부터 시작해 보겠습니다. 워크플로우를 실행하려면 Queue Prompt를 클릭하세요. 잠시 기다리면 첫 번째 생성된 이미지를 볼 수 있습니다! 큐를 확인하려면 View Queue를 클릭하면 됩니다.
여기 시도해 볼 수 있는 기본 text-to-image 워크플로우가 있습니다:
ComfyUI 워크플로우는 두 가지 기본 구성 요소로 이루어집니다: 노드와 엣지.
먼저 Load Checkpoint 노드에서 Stable Diffusion Checkpoint 모델을 선택합니다. 사용 가능한 모델을 보려면 모델 이름을 클릭하세요. 모델 이름을 클릭해도 아무 일도 일어나지 않는다면 사용자 정의 모델을 업로드해야 할 수 있습니다.
**CLIP Text Encode (Prompt)**라는 레이블이 붙은 두 개의 노드가 보일 것입니다. 상단 프롬프트는 KSampler 노드의 positive 입력에 연결되고, 하단 프롬프트는 negative 입력에 연결됩니다. 따라서 상단에는 positive prompt를, 하단에는 negative prompt를 입력하세요.
CLIP Text Encode 노드는 프롬프트를 토큰으로 변환하고 텍스트 인코더를 사용하여 임베딩으로 인코딩합니다.
💡 팁: (keyword:weight) 구문을 사용하여 키워드의 가중치를 제어할 수 있습니다. 예를 들어 (keyword:1.2)로 효과를 높이거나 (keyword:0.8)로 낮출 수 있습니다.
Queue Prompt를 클릭하여 워크플로우를 실행합니다. 잠시 기다리면 첫 번째 이미지가 생성됩니다!
ComfyUI의 힘은 구성 가능성에서 비롯됩니다. 각 노드의 역할을 이해하면 필요에 맞게 조정할 수 있습니다. 하지만 세부 사항을 살펴보기 전에 ComfyUI가 어떻게 작동하는지 더 잘 이해하기 위해 Stable Diffusion 프로세스를 살펴보겠습니다.
Stable Diffusion 프로세스는 크게 세 가지 주요 단계로 요약할 수 있습니다:
Stable Diffusion 프로세스에 대한 개략적인 이해를 바탕으로 이제 ComfyUI에서 이 프로세스를 가능하게 하는 핵심 구성 요소와 노드를 살펴보겠습니다.
ComfyUI의 Load Checkpoint 노드는 Stable Diffusion 모델을 선택하는 데 중요한 역할을 합니다. Stable Diffusion 모델은 MODEL, CLIP, VAE라는 세 가지 주요 구성 요소로 이루어집니다. 각 구성 요소와 ComfyUI의 해당 노드와의 관계를 살펴보겠습니다.
VAE는 CLIP 언어 모델과 별개의 구성 요소라는 점에 유의하는 것이 중요합니다. CLIP은 텍스트 프롬프트 처리에 중점을 두는 반면, VAE는 픽셀 공간과 잠재 공간 간의 변환을 다룹니다.
ComfyUI의 CLIP Text Encode 노드는 사용자가 제공한 프롬프트를 CLIP 언어 모델에 입력하는 역할을 합니다. CLIP은 단어의 의미론적 의미를 이해하고 이를 시각적 개념과 연결할 수 있는 강력한 언어 모델입니다. 프롬프트가 CLIP Text Encode 노드에 입력되면 각 단어가 임베딩으로 변환되는 변환 프로세스를 거칩니다. 이러한 임베딩은 단어의 의미론적 정보를 포착하는 고차원 벡터입니다. 프롬프트를 임베딩으로 변환함으로써 CLIP은 MODEL이 주어진 프롬프트의 의미와 의도를 정확하게 반영하는 이미지를 생성할 수 있도록 합니다.
text-to-image 프로세스에서 생성은 잠재 공간의 랜덤 이미지로 시작합니다. 이 랜덤 이미지는 MODEL이 작업할 초기 상태 역할을 합니다. 잠재 이미지의 크기는 픽셀 공간의 실제 이미지 크기에 비례합니다. ComfyUI에서는 잠재 이미지의 높이와 너비를 조정하여 생성되는 이미지의 크기를 제어할 수 있습니다. 또한 배치 크기를 설정하여 각 실행에서 생성되는 이미지 수를 결정할 수 있습니다.
잠재 이미지의 최적 크기는 사용 중인 특정 Stable Diffusion 모델에 따라 다릅니다. SD v1.5 모델의 경우 권장 크기는 512x512 또는 768x768이며, SDXL 모델의 경우 최적 크기는 1024x1024입니다. ComfyUI는 1:1(정사각형), 3:2(가로), 2:3(세로), 4:3(가로), 3:4(세로), 16:9(와이드스크린), 9:16(수직) 등 다양한 일반적인 가로 세로 비율을 제공합니다. 잠재 이미지의 너비와 높이는 모델의 아키텍처와 호환되도록 8로 나누어 떨어져야 한다는 점에 유의하는 것이 중요합니다.
VAE(Variational AutoEncoder)는 픽셀 공간과 잠재 공간 사이에서 이미지 변환을 처리하는 Stable Diffusion 모델의 중요한 구성 요소입니다. 이미지 인코더와 이미지 디코더라는 두 가지 주요 부분으로 구성됩니다.
이미지 인코더는 픽셀 공간의 이미지를 가져와 저차원 잠재 표현으로 압축합니다. 이 압축 프로세스는 데이터 크기를 크게 줄여 더 효율적인 처리와 저장을 가능하게 합니다. 예를 들어, 512x512 픽셀 크기의 이미지는 64x64 크기의 잠재 표현으로 압축될 수 있습니다.
반면에 VAE 디코더라고도 하는 이미지 디코더는 잠재 표현에서 이미지를 픽셀 공간으로 재구성하는 역할을 담당합니다. 압축된 잠재 표현을 가져와 최종 이미지를 생성하기 위해 확장합니다.
VAE를 사용하면 몇 가지 이점이 있습니다:
하지만 몇 가지 단점도 고려해야 합니다:
이러한 제한 사항에도 불구하고 VAE는 픽셀 공간과 잠재 공간 사이의 효율적인 변환을 가능하게 하여 더 빠른 생성과 생성된 이미지에 대한 더 정확한 제어를 촉진함으로써 Stable Diffusion 모델에서 중요한 역할을 합니다.
ComfyUI의 KSampler 노드는 Stable Diffusion의 이미지 생성 프로세스의 핵심입니다. 사용자가 제공한 프롬프트와 일치하도록 잠재 공간의 랜덤 이미지를 디노이징하는 역할을 합니다. KSampler는 역방향 확산이라는 기술을 사용하여 CLIP 임베딩의 안내에 따라 노이즈를 제거하고 의미 있는 세부 사항을 추가하여 잠재 표현을 반복적으로 개선합니다.
KSampler 노드는 사용자가 이미지 생성 프로세스를 미세 조정할 수 있는 몇 가지 매개변수를 제공합니다:
Seed: 시드 값은 최종 이미지의 초기 노이즈와 구성을 제어합니다. 특정 시드를 설정하면 재현 가능한 결과를 얻고 여러 생성에 걸쳐 일관성을 유지할 수 있습니다.
Control_after_generation: 이 매개변수는 각 생성 후 시드 값이 어떻게 변경되는지 결정합니다. randomize(각 실행에 대해 새로운 무작위 시드 생성), increment(시드 값을 1 증가), decrement(시드 값을 1 감소) 또는 fixed(시드 값을 일정하게 유지)로 설정할 수 있습니다.
Step: 샘플링 단계 수는 개선 프로세스의 강도를 결정합니다. 값이 높을수록 아티팩트가 줄어들고 더 세밀한 이미지가 생성되지만 생성 시간도 늘어납니다.
Sampler_name: 이 매개변수를 사용하면 KSampler에서 사용하는 특정 샘플링 알고리즘을 선택할 수 있습니다. 서로 다른 샘플링 알고리즘은 약간 다른 결과를 산출하고 다양한 생성 속도를 가질 수 있습니다.
Scheduler: 스케줄러는 디노이징 프로세스의 각 단계에서 노이즈 레벨이 어떻게 변하는지 제어합니다. 잠재 표현에서 노이즈가 제거되는 속도를 결정합니다.
Denoise: 디노이즈 매개변수는 디노이징 프로세스에 의해 지워져야 하는 초기 노이즈의 양을 설정합니다. 1의 값은 모든 노이즈가 제거되어 깨끗하고 세밀한 이미지가 생성됨을 의미합니다.
이러한 매개변수를 조정하여 원하는 결과를 얻기 위해 이미지 생성 프로세스를 미세 조정할 수 있습니다.
RunComfy에서는 여러분만을 위한 궁극의 ComfyUI 온라인 경험을 만들었습니다. 복잡한 설치는 이제 안녕!
🎉 지금 ComfyUI 온라인 사용해보기 그리고 전에 없이 예술적 잠재력을 발휘하세요! 🎉
Image-to-Image 워크플로우는 프롬프트와 입력 이미지를 기반으로 이미지를 생성합니다. 직접 시도해 보세요!
Image-to-Image 워크플로우를 사용하려면:
더 많은 프리미엄 ComfyUI 워크플로우는 🌟ComfyUI 워크플로우 목록🌟을 참조하세요.
극도로 구성 가능하다는 점 덕분에 ComfyUI는 Stable Diffusion XL 모델을 지원하는 첫 번째 GUI 중 하나입니다. 한번 시도해 보겠습니다!
ComfyUI SDXL 워크플로우를 사용하려면:
더 복잡한 것을 살펴보겠습니다: 인페인팅! 훌륭한 이미지가 있지만 특정 부분을 수정하려면 인페인팅이 가장 좋은 방법입니다. 여기에서 시도해 보세요!
인페인팅 워크플로우를 사용하려면:
아웃페인팅은 이미지를 원래 경계를 넘어 확장할 수 있게 해주는 또 다른 흥미로운 기술입니다. 🌆 무한한 캔버스로 작업하는 것과 같습니다!
ComfyUI 아웃페인팅 워크플로우를 사용하려면:
더 많은 프리미엄 인페인팅/아웃페인팅 워크플로우는 🌟ComfyUI 워크플로우 목록🌟을 참조하세요.
다음으로 ComfyUI 업스케일에 대해 알아보겠습니다. 효율적으로 업스케일하는 데 도움이 되는 세 가지 기본 워크플로우를 소개하겠습니다.
업스케일에는 두 가지 주요 방법이 있습니다:
이를 달성하는 두 가지 방법:
또 다른 업스케일 방법은 Hi-res Latent Fix Upscale이라고도 하는 Upscale Latent로, 잠재 공간에서 직접 업스케일합니다.
더 많은 프리미엄 복원/업스케일 워크플로우는 🌟ComfyUI 워크플로우 목록🌟을 참조하세요.
ControlNet과 함께 AI 아트를 한 단계 높은 수준으로 끌어올릴 준비를 하세요. ControlNet은 이미지 생성을 혁신하는 획기적인 기술입니다!
ControlNet은 전례 없는 AI 생성 이미지 제어 권한을 부여하는 마법의 지팡이 🪄와 같습니다. Stable Diffusion과 같은 강력한 모델과 손잡고 작동하며, 그 기능을 향상시키고 이전에는 볼 수 없었던 방식으로 이미지 생성 프로세스를 안내할 수 있게 해줍니다!
원하는 이미지의 가장자리, 사람 포즈, 깊이 또는 심지어 분할 맵을 지정할 수 있다고 상상해 보세요. 🌠 ControlNet을 사용하면 그렇게 할 수 있습니다!
ControlNet의 세계에 더 깊이 뛰어들고 그 잠재력을 최대한 발휘하고 싶다면 저희가 도와드리겠습니다. ComfyUI에서 ControlNet 마스터하기에 대한 자세한 튜토리얼을 확인해 보세요! 📚 단계별 가이드와 영감을 주는 예제로 가득 차 있어 ControlNet 전문가가 될 수 있습니다. 🏆
ComfyUI Manager는 ComfyUI 인터페이스를 통해 다른 사용자 지정 노드를 설치하고 업데이트할 수 있는 사용자 지정 노드입니다. Queue Prompt 메뉴에서 Manager 버튼을 찾을 수 있습니다.
워크플로우에 설치하지 않은 사용자 지정 노드가 필요한 경우 다음 단계를 따르세요:
빈 영역을 더블 클릭하여 노드를 검색할 수 있는 메뉴를 표시합니다.
임베딩(텍스트 인버전이라고도 함)은 사용자 정의 개념이나 스타일을 AI 생성 이미지에 주입할 수 있는 ComfyUI의 강력한 기능입니다. 💡 AI에 새로운 단어나 구문을 가르치고 이를 특정 시각적 특성과 연결하는 것과 같습니다.
ComfyUI에서 임베딩을 사용하려면 positive 또는 negative 프롬프트 상자에 "embedding:" 다음에 임베딩 이름을 입력하기만 하면 됩니다. 예를 들면:
embedding: BadDream
이 프롬프트를 사용하면 ComfyUI는 ComfyUI > models > embeddings 폴더에서 "BadDream"이라는 임베딩 파일을 검색합니다. 📂 일치하는 항목이 있으면 해당 시각적 특성을 생성된 이미지에 적용합니다.
임베딩은 AI 아트를 개인화하고 특정 스타일이나 미학을 달성하는 좋은 방법입니다. 🎨 원하는 개념이나 스타일을 나타내는 일련의 이미지에서 학습하여 자신만의 임베딩을 만들 수 있습니다.
임베딩의 정확한 이름을 기억하는 것은 특히 대규모 컬렉션이 있는 경우 번거로울 수 있습니다. 😅 이때 ComfyUI-Custom-Scripts 사용자 지정 노드가 문제를 해결해 줍니다!
임베딩 이름 자동 완성을 활성화하려면:
ComfyUI-Custom-Scripts 노드가 설치되면 임베딩을 더 사용자 친화적인 방식으로 사용할 수 있습니다. 😊 프롬프트 상자에 "embedding:"을 입력하기 시작하면 사용 가능한 임베딩 목록이 나타납니다. 그러면 목록에서 원하는 임베딩을 선택하여 시간과 노력을 절약할 수 있습니다!
임베딩의 강도를 제어할 수 있다는 사실을 알고 계셨나요? 💪 임베딩은 본질적으로 키워드이므로 프롬프트의 일반 키워드와 마찬가지로 가중치를 적용할 수 있습니다.
임베딩의 가중치를 조정하려면 다음 구문을 사용하세요:
(embedding: BadDream:1.2)
이 예에서 "BadDream" 임베딩의 가중치는 20% 증가합니다. 따라서 더 높은 가중치(예: 1.2)는 임베딩을 더 두드러지게 만들고 더 낮은 가중치(예: 0.8)는 영향을 줄입니다. 🎚️ 이를 통해 최종 결과를 더욱 세밀하게 제어할 수 있습니다!
LoRA(Low-rank Adaptation의 약자)는 체크포인트 모델을 수정하고 미세 조정할 수 있는 ComfyUI의 또 다른 흥미로운 기능입니다. 🎨 기본 모델 위에 작고 특수화된 모델을 추가하여 특정 스타일을 달성하거나 사용자 지정 요소를 통합하는 것과 같습니다.
LoRA 모델은 컴팩트하고 효율적이어서 사용과 공유가 쉽습니다. 이미지의 예술적 스타일을 수정하거나 특정 사람이나 개체를 생성된 결과에 주입하는 것과 같은 작업에 일반적으로 사용됩니다.
LoRA 모델을 체크포인트 모델에 적용하면 VAE(Variational Autoencoder)는 그대로 두고 MODEL과 CLIP 구성요소를 수정합니다. 즉, LoRA는 이미지의 전체 구조를 변경하지 않고 내용과 스타일을 조정하는 데 중점을 둡니다.
ComfyUI에서 LoRA를 사용하는 것은 간단합니다. 가장 간단한 방법을 살펴보겠습니다:
ComfyUI는 체크포인트 모델과 LoRA 모델을 결합하여 지정된 프롬프트를 반영하고 LoRA에 의해 도입된 수정 사항을 통합하는 이미지를 만듭니다.
하지만 하나의 이미지에 여러 LoRA를 적용하고 싶다면 어떻게 해야 할까요? 문제 없습니다! ComfyUI를 사용하면 동일한 text-to-image 워크플로우에서 두 개 이상의 LoRA를 사용할 수 있습니다.
프로세스는 단일 LoRA를 사용하는 것과 유사하지만 하나가 아닌 여러 LoRA 모델을 선택해야 합니다. ComfyUI는 LoRA를 순차적으로 적용하므로 각 LoRA는 이전 LoRA에 의해 도입된 수정 사항을 기반으로 합니다.
이는 AI 생성 이미지에서 다양한 스타일, 요소 및 수정 사항을 조합할 수 있는 무한한 가능성을 열어줍니다. 🌍💡 독특하고 창의적인 결과를 얻기 위해 다양한 LoRA 조합을 실험해 보세요!
ComfyUI 초보자 가이드를 완료하신 것을 축하드립니다! 🙌 이제 AI 아트 제작의 흥미진진한 세계로 뛰어들 준비가 되셨습니다. 하지만 설치로 골치 아플 때 왜 바로 제작을 시작하지 않으시나요? 🤔
RunComfy에서는 설정 없이 온라인에서 ComfyUI를 사용할 수 있도록 간단하게 만들었습니다. ComfyUI 온라인 서비스에는 200개 이상의 인기 노드와 모델이 사전 로드되어 있으며, 창작물에 영감을 줄 50개 이상의 멋진 워크플로우도 포함되어 있습니다.
🌟 RunComfy는 초보자든 숙련된 AI 아티스트든 상관없이 예술적 비전을 실현하는 데 필요한 모든 것을 제공합니다. 💡 더 이상 기다리지 마세요 – 지금 ComfyUI 온라인 사용해보기를 통해 손끝으로 AI 아트 제작의 힘을 경험하세요! 🚀
© 저작권 2024 RunComfy. All Rights Reserved.