IC-Light는 생성된 이미지에 대한 국소적 편집을 수행하기 위해 Stable Diffusion 모델과 통합되는 AI 기반 이미지 편집 도구입니다. 이는 이미지를 잠재 공간 표현으로 인코딩하고, 특정 영역에 대한 편집을 적용한 다음, 수정된 잠재 표현을 다시 이미지로 디코딩하는 방식으로 작동합니다. 이 접근 방식은 원본 이미지의 전반적인 스타일과 일관성을 유지하면서 편집 과정에 대한 정확한 제어를 가능하게 합니다.
현재 텍스트 조건부 재조명 모델과 배경 조건부 모델의 두 가지 모델이 공개되었습니다. 두 유형 모두 전경 이미지를 입력으로 사용합니다.
IC-Light는 이미지를 인코딩하고 디코딩하기 위해 Stable Diffusion 모델의 힘을 활용합니다. 이 과정은 다음 단계로 나눌 수 있습니다:
2.1. 인코딩: 입력 이미지가 Stable Diffusion VAE(Variational Autoencoder)를 통과하여 압축된 잠재 공간 표현을 얻습니다. 2.2. 편집: 원하는 편집이 잠재 표현의 특정 영역에 적용됩니다. 이는 일반적으로 원래의 잠재 표현과 수정할 영역을 나타내는 마스크, 그리고 해당 편집 프롬프트를 연결하여 수행됩니다. 2.3. 디코딩: 수정된 잠재 표현이 Stable Diffusion 디코더를 통과하여 편집된 이미지를 재구성합니다. IC-Light는 잠재 공간에서 작동함으로써 이미지의 전반적인 일관성과 스타일을 유지하면서 국소적인 편집을 수행할 수 있습니다.
주로 작업하게 될 노드는 "IC-Light Apply" 노드로, 이미지의 인코딩, 편집, 디코딩 전체 과정을 처리합니다.
"IC-Light Apply" 노드는 세 가지 주요 입력을 필요로 합니다:
c_concat 입력을 생성하려면:
"IC-Light Apply" 노드는 입력을 처리한 후 단일 매개변수를 출력합니다:
최종 편집된 이미지를 생성하려면 출력 모델을 ComfyUI 워크플로의 적절한 노드(예: KSampler 및 VAEDecode 노드)에 연결하기만 하면 됩니다.
자세한 내용은 을 참조하세요.
© 저작권 2024 RunComfy. All Rights Reserved.