이 워크플로는 의 영감을 받아 일부 수정되었습니다. 자세한 내용은 그의 YouTube 채널을 방문하세요.
이 워크플로를 사용하면 AnimateDiff, ControlNet 및 IPAdapter를 사용하여 표준 비디오를 매력적인 일본 애니메이션 작품으로 변환할 수 있습니다. 다양한 체크포인트, LoRA 설정 및 IPAdapter에 대한 참조 이미지를 자유롭게 실험하여 고유한 스타일을 만들어보세요. 애니메이션 세계에서 비디오에 생명을 불어넣는 재미있고 창의적인 방법입니다!
에 대한 자세한 내용을 확인하세요.
ControlNet은 텍스트 기반 이미지 생성 확산 모델에 새로운 수준의 공간 제어를 도입하여 이미지 생성 방식을 혁신합니다. 이 최첨단 신경망 아키텍처는 Stable Diffusion과 같은 거대 모델과 아름답게 협력하여 수십억 장의 이미지에서 축적된 방대한 라이브러리를 활용하여 공간적 뉘앙스를 이미지 생성의 직물에 직접 짜넣습니다. 가장자리 스케치부터 인간 자세 매핑, 깊이 인식 또는 시각적 분할에 이르기까지 ControlNet은 단순한 텍스트 프롬프트의 범위를 넘어서는 방식으로 이미지를 조작할 수 있게 해줍니다.
ControlNet의 핵심은 매우 간단합니다. 먼저 원래 모델의 매개변수 무결성을 보호하여 기본 훈련을 그대로 유지합니다. 그런 다음 ControlNet은 모델의 인코딩 레이어 세트를 복제하지만 "제로 컨볼루션"을 사용하여 훈련된다는 차이점이 있습니다. 이러한 0을 시작점으로 사용한다는 것은 레이어가 새로운 공간 조건을 부드럽게 통합하여 혼란을 일으키지 않으므로 모델이 새로운 학습 경로를 시작하더라도 원래 재능이 보존된다는 것을 의미합니다.
ControlNet과 T2I-Adapter는 이미지 생성의 조건화에서 중요한 역할을 하며, 각각 고유한 장점을 제공합니다. T2I-Adapter는 특히 이미지 생성 속도를 높이는 측면에서 효율성으로 인정받고 있습니다. 그럼에도 불구하고 ControlNet은 생성 프로세스를 정교하게 안내하는 능력에서 타의 추종을 불허하므로 창작자에게 강력한 도구가 됩니다.
많은 T2I-Adapter 및 ControlNet 모델 간의 기능 중복을 고려할 때 우리의 논의는 주로 ControlNet에 초점을 맞출 것입니다. 그러나 RunComfy 플랫폼에는 사용 편의성을 위해 여러 T2I-Adapter 모델이 사전 로드되어 있다는 점에 유의할 필요가 있습니다. T2I-Adapter를 실험하는 데 관심이 있는 분들은 이러한 모델을 원활하게 로드하여 프로젝트에 통합할 수 있습니다.
ComfyUI에서 ControlNet과 T2I-Adapter 모델 중에서 선택하는 것은 ControlNet 노드의 사용이나 워크플로의 일관성에 영향을 미치지 않습니다. 이러한 통일성은 간소화된 프로세스를 보장하므로 프로젝트 요구 사항에 따라 각 모델 유형의 고유한 이점을 활용할 수 있습니다.
3.4.1. "Apply ControlNet" 노드 로드
시작하려면 "Apply ControlNet" 노드를 ComfyUI에 로드해야 합니다. 이것은 시각적 요소와 텍스트 프롬프트를 혼합하는 이중 조건 이미지 제작 여정의 첫 번째 단계입니다.
3.4.2. "Apply ControlNet" 노드의 입력 이해
Positive and Negative Conditioning: 최종 이미지를 형성하는 도구입니다. 포용해야 할 것과 피해야 할 것을 결정합니다. 이들을 "Positive prompt"와 "Negative prompt" 슬롯에 연결하여 텍스트 기반 창의적 방향과 동기화합니다.
ControlNet 모델 선택: 이 입력을 "Load ControlNet Model" 노드의 출력에 연결해야 합니다. 여기에서 목표로 하는 특정 특성이나 스타일에 따라 ControlNet 또는 T2IAdaptor 모델을 사용할지 결정합니다. ControlNet 모델에 초점을 맞추고 있지만, 잘 알려진 T2IAdapter를 언급하는 것도 전체적인 관점에서 가치가 있습니다.
이미지 전처리: 이미지를 "ControlNet Preprocessor" 노드에 연결하는 것이 중요합니다. 이는 이미지가 ControlNet에 맞게 준비되도록 하는 데 필수적입니다. 전처리기를 ControlNet 모델과 일치시키는 것이 중요합니다. 이 단계에서는 원본 이미지를 모델의 요구 사항에 맞게 조정합니다. 크기 조정, 색상 변경 또는 필요한 필터 적용 등을 통해 ControlNet에서 사용할 수 있도록 준비합니다.
3.4.3. "Apply ControlNet" 노드의 출력 이해
처리 후 "Apply ControlNet" 노드는 ControlNet과 창의적 입력의 정교한 상호 작용을 반영하는 두 가지 출력을 제공합니다: Positive and Negative Conditioning. 이러한 출력은 ComfyUI 내의 확산 모델을 안내하여 다음 선택으로 이어집니다. KSampler를 사용하여 이미지를 정제하거나 더 많은 ControlNet을 쌓아 전례 없는 디테일과 사용자 지정을 추구하는 사람들을 위해 더 깊이 파고드십시오.
3.4.4. 최상의 결과를 위해 "Apply ControlNet" 조정
Strength 결정: 이 설정은 ControlNet이 결과 이미지에 미치는 영향을 제어합니다. 1.0은 ControlNet의 입력이 완전히 주도권을 잡는 것을 의미하는 반면, 0.0으로 낮추면 ControlNet의 영향 없이 모델이 실행되도록 합니다.
Start Percent 조정: 이것은 확산 프로세스 중 ControlNet이 언제 개입하기 시작하는지를 알려줍니다. 예를 들어 20%의 시작은 5분의 1 지점부터 ControlNet이 자신의 영향력을 발휘하기 시작한다는 것을 의미합니다.
End Percent 설정: Start Percent의 반대편에 위치하며 ControlNet이 언제 물러나는지를 표시합니다. 80%로 설정하면 이미지가 마지막 단계에 근접할 때 ControlNet의 영향력이 사라지며, 마지막 구간에서는 ControlNet의 영향을 받지 않습니다.
3.5.1. ControlNet 모델: Openpose
Preprocessor options include: Openpose or DWpose
3.5.2. ControlNet 모델: Depth
Depth 모델은 2D 이미지를 사용하여 깊이를 추론하고 이를 그레이스케일 맵으로 표현합니다. 각각은 디테일이나 배경 초점 면에서 장점이 있습니다:
Preprocessors to consider: Depth_Midas, Depth_Leres, Depth_Zoe, Depth_Anything, MeshGraphormer_Hand_Refiner. 이 모델은 렌더링 엔진의 실제 깊이 맵과의 호환성 및 견고성 면에서 뛰어납니다.
3.5.3. ControlNet 모델: SoftEdge
ControlNet Soft Edge는 자연스러운 모습을 유지하면서 디테일을 향상시키는 더 부드러운 가장자리가 있는 이미지를 생성하도록 제작되었습니다. 정교한 이미지 조작을 위해 최첨단 신경망을 활용하여 광범위한 창의적 제어와 완벽한 통합을 제공합니다.
견고성 면에서: SoftEdge_PIDI_safe > SoftEdge_HED_safe >> SoftEdge_PIDI > SoftEdge_HED
최고 품질의 결과를 위해: SoftEdge_HED > SoftEdge_PIDI > SoftEdge_HED_safe > SoftEdge_PIDI_safe
일반적인 권장 사항으로, SoftEdge_PIDI는 일반적으로 우수한 결과를 제공하므로 최선의 선택입니다.
Preprocessors include: SoftEdge_PIDI, SoftEdge_PIDI_safe, SoftEdge_HED, SoftEdge_HED_safe.
3.5.4. ControlNet 모델: Canny
Canny 모델은 Canny 가장자리 감지를 구현하여 이미지 내의 다양한 가장자리를 강조 표시합니다. 이 모델은 이미지의 전체적인 모습을 단순화하면서 구조적 요소의 무결성을 유지하는 데 탁월하여 스타일화된 예술 작품 제작이나 추가 조작을 위한 이미지 준비에 도움이 됩니다.
Preprocessors available: Canny
3.5.5. ControlNet 모델: Lineart
Lineart 모델은 이미지를 다양한 예술적 응용 분야에 적합한 스타일화된 선 그림으로 변환하는 도구입니다:
Preprocessors available can produce either detailed or more pronounced lineart (Lineart and Lineart_Coarse).
3.5.6. ControlNet 모델: Tile
Tile Resample 모델은 이미지의 디테일을 부각시키는 데 탁월합니다. 특히 업스케일러와 함께 사용하여 이미지 해상도와 디테일을 향상시키는 데 효과적이며, 종종 이미지 텍스처와 요소를 선명하게 하고 풍부하게 하는 데 적용됩니다.
Preprocessor recommended: Tile
여러 ControlNet 또는 T2I-Adapter를 통합하면 이미지 생성 프로세스에 다양한 조건 유형을 순차적으로 적용할 수 있습니다. 예를 들어, Lineart와 OpenPose ControlNet을 결합하여 디테일을 강화할 수 있습니다.
객체 모양을 위한 Lineart: Lineart ControlNet을 통합하여 이미지의 객체나 요소에 깊이와 디테일을 추가하는 것으로 시작합니다. 이 프로세스에는 포함하려는 객체에 대한 라인아트 또는 캐니 맵을 준비하는 작업이 포함됩니다.
포즈 제어를 위한 OpenPose: 라인아트 디테일링에 이어 OpenPose ControlNet을 활용하여 이미지 내 개인의 포즈를 지시합니다. 원하는 포즈를 포착하는 OpenPose 맵을 생성하거나 획득해야 합니다.
순차적 적용: 이러한 효과를 효과적으로 결합하려면 Lineart ControlNet의 출력을 OpenPose ControlNet에 연결하세요. 이 방법은 피사체의 포즈와 객체의 모양이 생성 프로세스 동안 동시에 안내되어 모든 입력 사양과 조화롭게 일치하는 결과를 만들어냅니다.
에 대한 자세한 내용을 확인하세요.
© 저작권 2024 RunComfy. All Rights Reserved.