IC-Lightは、生成された画像のローカルな編集を実行するために、Stable Diffusionモデルと統合されたAIベースの画像編集ツールです。これは、画像を潜在空間表現にエンコードし、特定の領域に編集を適用し、その後、修正された潜在表現を画像にデコードすることで機能します。このアプローチにより、元の画像の全体的なスタイルと一貫性を維持しながら、編集プロセスを正確に制御できます。
現在、テキスト条件付き再照明モデルと背景条件付きモデルの2つのモデルがリリースされています。両方のタイプは、前景画像を入力として受け取ります。
内部的には、IC-Lightは画像のエンコードとデコードにStable Diffusionモデルの力を活用しています。このプロセスは、次の手順に分けることができます。
2.1. エンコード: 入力画像は、Stable Diffusion VAE(Variational Autoencoder)を通過して、圧縮された潜在空間表現を取得します。 2.2. 編集: 目的の編集が潜在表現の特定の領域に適用されます。これは通常、元の潜在と、修正する領域を示すマスク、および対応する編集プロンプトを連結することによって行われます。 2.3. デコード: 修正された潜在表現は、Stable Diffusionデコーダを通過して、編集された画像を再構成します。 IC-Lightは潜在空間で動作することにより、画像の全体的な一貫性とスタイルを維持しながら、局所的な編集を行うことができます。
あなたが主に使用するノードは "IC-Light Apply" ノードで、画像のエンコード、編集、デコードのプロセス全体を処理します。
"IC-Light Apply" ノードには、3つの主要な入力が必要です。
c_concat入力を作成するには:
入力を処理した後、"IC-Light Apply" ノードは単一のパラメータを出力します。
最終的な編集画像を生成するには、出力モデルをComfyUIワークフローの適切なノード(KSamplerやVAEDecodeノードなど)に接続するだけです。
詳細については、をご覧ください。
© 著作権 2024 RunComfy. All Rights Reserved.