Updated: 8/26/2024
こんにちは、AI愛好家の皆さん! 👋 ComfyUI内でFLUXを使用するための入門ガイドへようこそ。FLUXはBlack Forest Labsによって開発された最先端のモデルです。🌟 このチュートリアルでは、ComfyUI FLUXの基本を掘り下げ、この強力なモデルが創造プロセスをどのように強化し、AI生成アートの境界を押し広げるのに役立つかを紹介します。🚀
カバーする内容は次のとおりです:
Black Forest Labsによる最先端のAIモデル、FLUX.1は、テキスト記述から画像を生成する方法を変革しています。入力プロンプトに密接に一致する驚くほど詳細で複雑な画像を生成する比類のない能力を持つFLUX.1は、競争相手から一線を画しています。FLUX.1の成功の秘密は、異なる種類のトランスフォーマーブロックを組み合わせたユニークなハイブリッドアーキテクチャにあり、12億パラメータの力を持っています。これにより、FLUX.1はテキスト記述を正確に表現する視覚的に魅力的な画像を生成することができます。
FLUX.1の最もエキサイティングな側面の1つは、さまざまなスタイルで画像を生成できることです。フォトリアリスティックからアーティスティックまで、FLUX.1は他の多くのモデルが達成に苦労するテキストを画像内にシームレスに組み込む能力も持っています。さらに、FLUX.1は優れたプロンプト遵守能力で知られており、簡単な説明から複雑な説明までを簡単に処理します。このため、FLUX.1はStable DiffusionやMidjourneyなどの他の有名なモデルと頻繁に比較され、その使いやすさと一流の結果により、しばしば好まれる選択肢となっています。
FLUX.1の印象的な能力は、素晴らしい視覚コンテンツの作成や革新的なデザインのインスピレーションから科学的な可視化の促進まで、幅広いアプリケーションにとって貴重なツールとなっています。テキスト記述から詳細で正確な画像を生成するFLUX.1の能力は、クリエイティブなプロフェッショナル、研究者、および愛好家にとって無限の可能性を開きます。AI生成画像の分野が進化し続ける中、FLUX.1は品質、汎用性、使いやすさの新しい基準を設定し、最前線に立っています。
画期的なFLUX.1を開発した先駆的なAI企業であるBlack Forest Labsは、AI業界の著名な人物であり、以前はStability AIのコアメンバーとして活躍していたRobin Rombachによって設立されました。Black Forest LabsとFLUX.1に関する革新的な仕事について詳しく知りたい方は、公式ウェブサイトhttps://blackforestlabs.ai/をぜひご覧ください。
FLUX.1は、特定のユーザーのニーズに合わせて設計された3つの異なるバージョンがあります:
Name | HuggingFace repo | License | md5sum |
FLUX.1 [pro] | Only available in our API. | ||
FLUX.1 [dev] | https://huggingface.co/black-forest-labs/FLUX.1-dev | FLUX.1-dev Non-Commercial License | a6bd8c16dfc23db6aee2f63a2eba78c0 |
FLUX.1 [schnell] | https://huggingface.co/black-forest-labs/FLUX.1-schnell | apache-2.0 | a9e1e277b9b16add186f38e3f5a34044 |
fp16
Clipモデルバリアントを使用することをお勧めします。fp16
またはfp8
ClipモデルをGPUの能力に応じて使用できます。fp8
計算を許容します。速度に重点を置いており、超高品質よりも効率とスピードに焦点を当てています。ComfyUI環境内でFLUX.1を効果的に使用するには、最新バージョンのComfyUIがインストールされていることが重要です。このバージョンはFLUX.1モデルに必要な機能と統合をサポートしています。
FLUX.1を使用したテキストから画像への生成を最適化し、正確にするためには、特定のテキストエンコーダーとCLIPモデルをダウンロードする必要があります。システムのハードウェアに応じて、次のモデルが必要です:
Model File Name | Size | Note | Link |
t5xxl_fp16.safetensors | 9.79 GB | 高VRAMおよびRAM(32GB以上のRAM)を持つ場合により良い結果を得るために。 | ダウンロード |
t5xxl_fp8_e4m3fn.safetensors | 4.89 GB | メモリ使用量が少ない場合(8-12GB) | ダウンロード |
clip_l.safetensors | 246 MB | ダウンロード |
ダウンロードとインストールの手順:
clip_l.safetensors
モデルをダウンロードします。t5xxl_fp8_e4m3fn.safetensors
(for lower VRAM) or t5xxl_fp16.safetensors
(for higher VRAM and RAM).ComfyUI/models/clip/
directory. Note: If you have previously used SD 3 Medium, you may already have these models.Variational Autoencoder (VAE)モデルは、FLUX.1の画像生成品質を向上させるために重要です。以下のVAEモデルがダウンロード可能です:
File Name | Size | Link |
ae.safetensors | 335 MB | ダウンロード(新しいタブで開く) |
ダウンロードとインストールの手順:
ae.safetensors
モデルファイルをダウンロードします。ComfyUI/models/vae
ディレクトリに配置します。flux_ae.safetensors
に変更することをお勧めします。UNETモデルは、FLUX.1の画像合成のバックボーンです。システムの仕様に応じて、異なるバリアントを選択できます:
File Name | Size | Link | Note |
flux1-dev.safetensors | 23.8GB | ダウンロード | 高VRAMおよびRAMを持つ場合。 |
flux1-schnell.safetensors | 23.8GB | ダウンロード | 低メモリ使用量のため |
ダウンロードとインストールの手順:
ComfyUI/models/unet/
ディレクトリに配置します。ComfyUI FLUXワークフローを継続的に更新し、ComfyUI FLUXを使用して素晴らしい画像を生成するための最新かつ包括的なワークフローを提供します。
RunComfyプラットフォームでは、オンラインバージョンが必要なモードとノードをすべて事前にロードします。さらに、高性能GPUマシンを提供しており、ComfyUI FLUX Txt2Imgの体験を簡単に楽しむことができます。
ComfyUI FLUX Txt2Imgワークフローは、FLUX UNET(UNETLoader)、FLUX CLIP(DualCLIPLoader)、およびFLUX VAE(VAELoader)を含む主要コンポーネントを読み込むことから始まります。これらは、ComfyUI FLUX画像生成プロセスの基盤を形成します。
テキストプロンプトは、CLIPTextEncodeを使用してエンコードされます。このノードは、テキストプロンプトを入力として受け取り、エンコードされたテキストコンディショニングを出力し、ComfyUI FLUXの生成中にガイドします。
ComfyUI FLUX生成プロセスを開始するために、EmptyLatentImageを使用して空の潜在表現が作成されます。これは、ComfyUI FLUXが基盤として構築する出発点です。
BasicGuiderは、ComfyUI FLUX生成プロセスをガイドする重要な役割を果たします。エンコードされたテキストコンディショニングとロードされたFLUX UNETを入力として受け取り、生成された出力が提供されたテキスト記述と一致するようにします。
KSamplerSelectは、ComfyUI FLUX生成のためのサンプリング方法を選択することができます。RandomNoiseは、ComfyUI FLUXの入力としてランダムノイズを生成します。BasicSchedulerは、生成プロセスの各ステップでのノイズレベル(シグマ)をスケジュールし、最終出力の詳細と明瞭さを制御します。
SamplerCustomAdvancedは、ComfyUI FLUX Txt2Imgワークフローのすべてのコンポーネントを統合します。ランダムノイズ、ガイダー、選択されたサンプラー、スケジュールされたシグマ、および空の潜在表現を入力として受け取り、テキストプロンプトを表す潜在表現を生成します。
最後に、VAEDecodeは、生成された潜在表現をロードされたFLUX VAEを使用して最終出力にデコードします。SaveImageは、生成された出力を指定された場所に保存し、ComfyUI FLUX Txt2Imgワークフローによって可能になった素晴らしい創造物を保存します。
RunComfyプラットフォームでは、オンラインバージョンが必要なモードとノードをすべて事前にロードします。さらに、高性能GPUマシンを提供しており、ComfyUI FLUX Img2Imgの体験を簡単に楽しむことができます。
ComfyUI FLUX Img2Imgワークフローは、テキストプロンプトと入力表現の両方に基づいて出力を生成するために、ComfyUI FLUXの力を活用します。最初に、CLIPモデル(DualCLIPLoader)、UNETモデル(UNETLoader)、およびVAEモデル(VAELoader)などの必要なコンポーネントを読み込みます。
入力表現は、LoadImageを使用して読み込まれ、ImageScaleで目的のサイズにスケーリングされ、ComfyUI FLUXとの互換性を確保します。
スケーリングされた入力表現は、VAEEncodeを使用してエンコードされ、潜在表現に変換されます。この潜在表現は、入力の本質的な特徴と詳細を捉え、ComfyUI FLUXが作業するための基盤を提供します。
desired modifications or enhancements to the input, is encoded using the CLIPTextEncode. The FluxGuidance then applies guidance to the conditioning based on the specified guidance scale, influencing the strength of the text prompt's influence on the final output.
The ModelSamplingFlux sets the sampling parameters for ComfyUI FLUX, including the timestep respacing, padding ratio, and output dimensions. These parameters control the granularity and resolution of the generated output.
The KSamplerSelect allows you to choose the sampling method for ComfyUI FLUX generation, while the BasicGuider guides the generation process based on the encoded text conditioning and the loaded FLUX UNET.
Random noise is generated using the RandomNoise, and the BasicScheduler schedules the noise levels (sigmas) for each step in the generation process. These components introduce controlled variations and fine-tune the details in the final output.
The SamplerCustomAdvanced brings together the random noise, guider, selected sampler, scheduled sigmas, and the latent representation of the input. Through an advanced sampling process, it generates a latent representation that incorporates the modifications specified by the text prompt while preserving the essential features of the input.
Finally, the VAEDecode decodes the denoised latent representation into the final output using the loaded FLUX VAE. The PreviewImage displays a preview of the generated output, showcasing the stunning results achieved by the ComfyUI FLUX Img2Img workflow.
RunComfyプラットフォームでは、オンラインバージョンが必要なモードとノードをすべて事前にロードします。さらに、高性能GPUマシンを提供しており、ComfyUI FLUX LoRAの体験を簡単に楽しむことができます。
ComfyUI FLUX LoRAワークフローは、Low-Rank Adaptation (LoRA)の力を活用して、ComfyUI FLUXのパフォーマンスを向上させます。最初に、必要なコンポーネントをロードします。これには、UNETモデル(UNETLoader)、CLIPモデル(DualCLIPLoader)、VAEモデル(VAELoader)、およびLoRAモデル(LoraLoaderModelOnly)が含まれます。
テキストプロンプトは、String Literalを使用して指定されます。次に、CLIPTextEncodeを使用してテキストプロンプトをエンコードし、ComfyUI FLUX生成プロセスをガイドするエンコードされたテキストコンディショニングを生成します。
FluxGuidanceは、エンコードされたテキストコンディショニングにガイダンスを適用し、ComfyUI FLUXのテキストプロンプトへの遵守の強度と方向性に影響を与えます。
空の潜在表現は、EmptyLatentImageを使用して生成の出発点 として作成されます。生成された出力の幅と高さは、Int Literalを使用して指定され、最終結果の希望する寸法を確保します。
ModelSamplingFluxは、ComfyUI FLUXのサンプリングパラメータを設定し、パディング比率とタイムステップリスペーシングを含みます。これらのパラメータは、生成された出力の解像度と粒度を制御します。
KSamplerSelectは、ComfyUI FLUX生成のためのサンプリング方法を選択することができます。BasicGuiderは、エンコードされたテキストコンディショニングとロードされたFLUX UNETを基に生成プロセスをガイドします。
ランダムノイズは、RandomNoiseを使用して生成され、BasicSchedulerはComfyUI FLUX生成プロセスの各ステップでのノイズレベル(シグマ)をスケジュールします。これらのコンポーネントは、制御された変動を導入し、最終出力の詳細を微調整します。
SamplerCustomAdvancedは、ランダムノイズ、ガイダー、選択されたサンプラー、スケジュールされたシグマ、および空の潜在表現を統合します。高度なサンプリングプロセスを通じて、テキストプロンプトを表す潜在表現を生成し、FLUXとFLUX LoRAの力を活用します。
最後に、VAEDecodeは、生成された潜在表現をロードされたFLUX VAEを使用して最終出力にデコードします。SaveImageは、生成された出力を指定された場所に保存し、ComfyUI FLUX LoRAワークフローによって可能になった素晴らしい創造物を保存します。
RunComfyプラットフォームでは、オンラインバージョンが必要なモードとノードをすべて事前にロードします。さらに、高性能GPUマシンを提供しており、ComfyUI FLUX ControlNetの体験を簡単に楽しむことができます。
ComfyUI FLUX ControlNetワークフローは、ControlNetとComfyUI FLUXの統合を示し、出力生成を強化します。ワークフローは、深度ベースのコンディショニングとCannyエッジベースのコンディショニングの2つの例を示します。
深度ベースのワークフローでは、入力表現はMiDaS-DepthMapPreprocessorを使用して前処理され、深度マップが生成されます。深度マップは、ロードされたFLUX ControlNetと共にApplyFluxControlNet (Depth)を通じて渡され、深度コンディショニングが行われます。生成されたFLUX ControlNetコンディションは、ロードされたFLUX UNET、エンコードされたテキストコンディショニング、ネガティブテキストコンディショニング、および空の潜在表現と共にXlabsSampler (Depth)に入力されます。XlabsSamplerは、これらの入力に基づいて潜在表現を生成し、VAEDecodeを使用して最終出力にデコードされます。
同様に、Cannyエッジベースのワークフローでは、入力表現はCannyEdgePreprocessorを使用して前処理され、Cannyエッジが生成されます。Cannyエッジ表現は、ロードされたFLUX ControlNetと共にApplyFluxControlNet (Canny)を通じて渡され、Cannyエッジコンディショニングが行われます。生成されたFLUX ControlNetコンディションは、ロードされたFLUX UNET、エンコードされたテキストコンディショニング、ネガティブテキストコンディショニング、および空の潜在表現と共にXlabsSampler (Canny)に入力されます。XlabsSamplerは、これらの入力に基づいて潜在表現を生成し、VAEDecodeを使用して最終出力にデコードされます。
ComfyUI FLUX ControlNetワークフローは、必要なコンポーネント(DualCLIPLoader、UNETLoader、VAELoader、LoadFluxControlNet)を読み込み、テキストプロンプトをエンコード(CLIPTextEncodeFlux)、空の潜在表現を作成(EmptyLatentImage)、生成されたおよび前処理された出力をプレビュー(PreviewImage)するノードを組み込んでいます。
FLUX ControlNetの力を活用することにより、ComfyUI FLUX ControlNetワークフローは、深度マップやCannyエッジなどの特定のコンディショニングに一致する出力の生成を可能にします。この追加の制御とガイダンスのレベルは、生成プロセスの柔軟性と精度を向上させ、ComfyUI FLUXを使用して素晴らしくコンテキストに関連する出力を作成することを可能にします。
RunComfyプラットフォームでは、オンラインバージョンが必要なモードとノードをすべて事前にロードします。さらに、高性能GPUマシンを提供しており、ComfyUI FLUX Inpaintingの体験を簡単に楽しむことができます。
ComfyUI FLUX Inpaintingワークフローは、周囲のコンテキストと提供されたテキストプロンプトに基づいて、出力の欠落またはマスクされた領域を埋めるインペインティングの能力を示します。ワークフローは、必要なコンポーネント(UNETモデル(UNETLoader)、VAEモデル(VAELoader)、およびCLIPモデル(DualCLIPLoader))を読み込むことから始まります。
ポジティブおよびネガティブテキストプロンプトは、希望するインペインティング領域の内容とスタイルを記述し、CLIPTextEncodesを使用してエンコードされます。ポジティブテキストコンディショニングは、ComfyUI FLUXインペインティングプロセスをガイドするためにさらにガイダンスされます。
入力表現とマスクは、LoadAndResizeImageを使用して読み込まれ、ComfyUI FLUXの要件に適合するようにリサイズされます。ImpactGaussianBlurMaskは、マスクにガウシアンブラーを適用し、インペインティング領域と元の表現との間のスムーズな移行を作成します。
InpaintModelConditioningは、ガイドされたポジティブテキストコンディショニング、エンコードされたネガティブテキストコンディショニング、ロードされたFLUX VAE、ロードおよびリサイズされた入力表現、ぼかされたマスクを組み合わせて、FLUXインペインティングのためのコンディショニングを準備します。このコンディショニングは、ComfyUI FLUXインペインティングプロセスの基盤として機能します。
ランダムノイズは、RandomNoiseを使用して生成され、サンプリング方法はKSamplerSelectを使用して選択されます。BasicSchedulerは、ComfyUI FLUXインペインティングプロセスのノイズレベル(シグマ)をスケジュールし、インペインティング領域の詳細と明瞭さを制御します。
BasicGuiderは、準備されたコンディショニングとロードされたFLUX UNETを基にComfyUI FLUXインペインティングプロセスをガイドします。SamplerCustomAdvancedは、高度なサンプリングプロセスを実行し、生成されたランダムノイズ、ガイダー、選択されたサンプラー、スケジュールされたシグマ、および入力の潜在表現を入力として受け取り、インペインティングされた潜在表現を出力します。
最後に、VAEDecodeは、インペインティングされた潜在表現をロードされたFLUX VAEを使用して最終出力にデコードします。PreviewImageは、FLUXの印象的なインペインティング能力を示す最終出力を表示します。
FLUXの力と慎重に設計されたインペインティングワークフローを活用することにより、FLUX Inpaintingは視覚的に一貫性があり、コンテキストに関連するインペインティング出力の作成を可能にします。欠落した部分の復元、不要なオブジェクトの除去、特定の領域の修正など、ComfyUI FLUXインペインティングワークフローは編集と操作のための強力なツールを提供します。
RunComfyプラットフォームでは、オンラインバージョンが必要なモードとノードをすべて事前にロードします。さらに、高性能GPUマシンを提供しており、ComfyUI FLUX NF4の体験を簡単に楽しむことができます。
ComfyUI FLUX NF4ワークフローは、FLUX UNET、FLUX CLIP、FLUX VAEを含む必要なコンポーネントをCheckpointLoaderNF4を使用して読み込みます。
PrimitiveNode (height)およびPrimitiveNode (width)ノードは、生成された出力の希望する高さと幅を指定します。ModelSamplingFluxノードは、ロードされたFLUX UNETおよび指定された高さと幅に基づいてComfyUI FLUXのサンプリングパラメータを設定します。
EmptySD3LatentImageノードは、生成の出発点として空の潜在表現を作成します。BasicSchedulerノードは、ComfyUI FLUX生成プロセスのノイズレベル(シグマ)をスケジュールします。
RandomNoiseノードは、ComfyUI FLUX生成プロセスのためのランダムノイズを生成します。BasicGuiderノードは、コンディショニングされたComfyUI FLUXに基づいて生成プロセスをガイドします。
KSamplerSelectノードは、ComfyUI FLUX生成のためのサンプリング方法を選択します。SamplerCustomAdvancedノードは、高度なサンプリングプロセスを実行し、生成されたランダムノイズ、ガイダー、選択されたサンプラー、スケジュールされたシグマ、および空の潜在表現を入力として受け取り、生成された潜在表現を出力します。
VAEDecodeノードは、生成された潜在表現をロードされたFLUX VAEを使用して最終出力にデコードします。SaveImageノードは、生成された出力を指定された場所に保存します。
アップスケーリングには、UltimateSDUpscaleノードが使用されます。生成された出力、ロードされたFLUX、アップスケーリングのためのポジティブおよびネガティブコンディショニング、ロードされたFLUX VAE、およびロードされたFLUXアップスケーリングを入力として受け取ります。CLIPTextEncode (Upscale Positive Prompt)ノードは、アップスケーリングのためのポジティブテキストプロンプトをエンコードします。UpscaleModelLoaderノードは、FLUXアップスケーリングをロードします。UltimateSDUpscaleノードはアップスケーリングプロセスを実行し、アップスケールされた表現を出力します。最後に、SaveImage (Upscaled)ノードは、アップスケールされた出力を指定された場所に保存します。
ComfyUI FLUXとNF4アーキテクチャの力を活用することにより、ComfyUI FLUX NF4ワークフローは、強化された忠実度とリアリズムを持つ高品質の出力を生成します。ComfyUI FLUXとNF4アーキテクチャのシームレスな統合により、驚くべき魅力的な出力を作成するための強力なツールが提供されます。
IPAdapter](https://www.runcomfy.com/ja/comfyui-workflows/comfyui-flux-ipadapter)
RunComfyプラットフォームでは、オンラインバージョンが必要なモードとノードをすべて事前にロードします。さらに、高性能GPUマシンを提供しており、ComfyUI FLUX IPAdapterの体験を簡単に楽しむことができます。
ComfyUI FLUX IPAdapterワークフローは、UNETモデル(UNETLoader)、CLIPモデル(DualCLIPLoader)、およびVAEモデル(VAELoader)などの必要なモデルを読み込むことから始まります。
ポジティブおよびネガティブテキストプロンプトは、CLIPTextEncodeFluxを使用してエンコードされます。ポジティブテキストコンディショニングは、ComfyUI FLUX生成プロセスをガイドするために使用されます。
入力画像は、LoadImageを使用して読み込まれます。LoadFluxIPAdapterは、FLUXモデルのためのIP-Adapterを読み込み、ApplyFluxIPAdapterを使用してロードされたUNETモデルに適用されます。ImageScaleは、IP-Adapterを適用する前に入力画像を希望のサイズにスケーリングします。
EmptyLatentImageは、ComfyUI FLUX生成の出発点として空の潜在表現を作成します。
XlabsSamplerは、FLUX UNETに適用されたIP-Adapter、エンコードされたポジティブおよびネガティブテキストコンディショニング、および空の潜在表現を入力として受け取り、サンプリングプロセスを実行します。これにより、潜在表現が生成されます。
VAEDecodeは、生成された潜在表現をロードされたFLUX VAEを使用して最終出力にデコードします。PreviewImageノードは、最終出力のプレビューを表示します。
ComfyUI FLUX IPAdapterワークフローは、ComfyUI FLUXの力とIP-Adapterを活用して、提供されたテキストプロンプトに一致する高品質の出力を生成します。IP-AdapterをFLUX UNETに適用することで、テキストコンディショニングで指定された特性とスタイルを捉えた出力の生成が可能になります。
ComfyUI FLUX LoRA Trainerワークフローは、ComfyUIでFLUXアーキテクチャを使用してLoRAをトレーニングするための複数のステージで構成されています。
ComfyUI FLUXの選択と構成: FluxTrainModelSelectノードは、UNET、VAE、CLIP、およびCLIPテキストエンコーダーを含むトレーニング用のコンポーネントを選択します。 OptimizerConfigノードは、ComfyUI FLUXトレーニングのためのオプティマイザ設定(オプティマイザタイプ、学習率、ウェイトデケイなど)を構成します。 TrainDatasetGeneralConfigおよびTrainDatasetAddノードは、解像度、オーグメンテーション設定、バッチサイズなどのトレーニングデータセットを構成します。
ComfyUI FLUXトレーニングの初期化: InitFluxLoRATrainingノードは、選択されたコンポーネント、データセット構成、およびオプティマイザ設定を使用してLoRAトレーニングプロセスを初期化します。 FluxTrainValidationSettingsノードは、検証サンプル数、解像度、バッチサイズなどのトレーニングの検証設定を構成します。
ComfyUI FLUXトレーニングループ: FluxTrainLoopノードは、指定されたステップ数でLoRAのトレーニングループを実行します。 各トレーニングループの後、FluxTrainValidateノードは検証設定を使用してトレーニングされたLoRAを検証し、検証出力を生成します。 PreviewImageノードは、検証結果のプレビューを表示します。 FluxTrainSaveノードは、指定された間隔でトレーニングされたLoRAを保存します。
ComfyUI FLUX損失の視覚化: VisualizeLossノードは、トレーニング全体の損失を視覚化します。 SaveImageノードは、さらなる分析のために損失プロットを保存します。
ComfyUI FLUX検証出力の処理: AddLabelおよびSomethingToStringノードは、トレーニングステップを示すラベルを検証出力に追加します。 ImageBatchMultiおよびImageConcatFromBatchノードは、検証出力を組み合わせて1つの結果にまとめ、視覚化を容易にします。
ComfyUI FLUXトレーニングの完了: FluxTrainEndノードは、LoRAトレーニングプロセスを完了し、トレーニングされたLoRAを保存します。 UploadToHuggingFaceノードは、トレーニングされたLoRAをHugging Faceにアップロードして、ComfyUI FLUXでの共有およびさらなる使用が可能です。
ComfyUI Flux Latent Upscaleワークフローは、CLIP(DualCLIPLoader)、UNET(UNETLoader)、およびVAE(VAELoader)などの必要なコンポーネントを読み込むことから始まります。テキストプロンプトは、CLIPTextEncodeノードを使用してエンコードされ、FluxGuidanceノードを使用してガイダンスが適用されます。
SDXLEmptyLatentSizePicker+ノードは、FLUXのアップスケーリングプロセスの出発点として空の潜在表現のサイズを指定します。潜在表現は、LatentUpscaleおよびLatentCropノードを使用して一連のアップスケーリングおよびクロッピングステップを経て処理されます。
アップスケーリングプロセスは、エンコードされたテキストコンディショニングによってガイドされ、選択されたサンプリング方法(KSamplerSelect)およびスケジュールされたノイズレベル(BasicScheduler)を使用してSamplerCustomAdvancedノードを使用します。ModelSamplingFluxノードは、サンプリングパラメータを設定します。
アップスケールされた潜在表現は、SolidMaskおよびFeatherMaskノードによって生成されたマスクを使用して、LatentCompositeMaskedノードを使用して元の潜在表現と合成されます。ノイズは、InjectLatentNoise+ノードを使用してアップスケールされた潜在表現に注入されます。
最後に、VAEDecodeは、生成された潜在表現をロードされたFLUX VAEを使用して最終出力にデコードし、ImageSmartSharpen+ノードを使用してスマートシャープニングが適用されます。PreviewImageノードは、ComfyUI FLUXによって生成された最終出力のプレビューを表示します。
ComfyUI FLUX Latent Upscalerワークフローには、アップスケーリングプロセスの寸法、比率、およびその他のパラメータを計算するためのSimpleMath+、SimpleMathFloat+、SimpleMathInt+、およびSimpleMathPercent+ノードを使用したさまざまな数学的操作も含まれています。
© 著作権 2024 RunComfy. All Rights Reserved.