ComfyUI  >  บทเรียน  >  ปลดล็อกพลังของ ComfyUI: คู่มือเริ่มต้นพร้อมการฝึกฝนจริง

สวัสดีศิลปิน AI ทุกคน! 👋 ยินดีต้อนรับสู่การสอนที่เป็นมิตรกับผู้เริ่มต้นของเราเกี่ยวกับ ComfyUI ซึ่งเป็นเครื่องมือที่ทรงพลังและยืดหยุ่นสำหรับการสร้างงานศิลปะที่สร้างขึ้นโดย AI ที่น่าทึ่ง 🎨 ในคู่มือนี้ เราจะพาคุณผ่านพื้นฐานของ ComfyUI สำรวจฟีเจอร์ของมัน และช่วยให้คุณปลดล็อกศักยภาพของมันเพื่อยกระดับงานศิลปะ AI ของคุณ 🚀

เราจะครอบคลุม:

1. ComfyUI คืออะไร?

  • 1.1. ComfyUI vs. AUTOMATIC1111
  • 1.2. จะเริ่มต้นกับ ComfyUI ที่ไหน?
  • 1.3. การควบคุมพื้นฐาน

2. เวิร์กโฟลว์ของ ComfyUI: ข้อความเป็นภาพ

  • 2.1. การเลือกโมเดล
  • 2.2. การป้อนคำบวกและคำลบ
  • 2.3. การสร้างภาพ
  • 2.4. คำอธิบายทางเทคนิคของ ComfyUI
    • 2.4.1 โหลด Checkpoint Node
    • 2.4.2. CLIP Text Encode
    • 2.4.3. ภาพ Latent ว่างเปล่า
    • 2.4.4. VAE
    • 2.4.5. KSampler

3. เวิร์กโฟลว์ของ ComfyUI: ภาพเป็นภาพ

4. ComfyUI SDXL

5. ComfyUI Inpainting

6. ComfyUI Outpainting

7. ComfyUI Upscale

  • 7.1. Upscale Pixel
    • 7.1.1. Upscale Pixel โดย Algorithm
    • 7.1.2. Upscale Pixel โดย Model
  • 7.2. Upscale Latent
  • 7.3. Upscale Pixel vs. Upscale Latent

8. ComfyUI ControlNet

9. ComfyUI Manager

  • 9.1. วิธีการติดตั้ง Custom Nodes ที่ขาดหายไป
  • 9.2. วิธีการอัปเดต Custom Nodes
  • 9.3. วิธีการโหลด Custom Nodes ในเวิร์กโฟลว์ของคุณ

10. ComfyUI Embeddings

  • 10.1. การฝังด้วย Autocomplete
  • 10.2. นํ้าหนักการฝัง

11. ComfyUI LoRA

  • 11.1. เวิร์กโฟลว์ LoRA ง่ายๆ
  • 11.2. หลาย LoRAs

12. ทางลัดและเคล็ดลับสำหรับ ComfyUI

  • 12.1. คัดลอกและวาง
  • 12.2. การย้ายหลาย Node
  • 12.3. ข้าม Node
  • 12.4. ย่อ Node
  • 12.5. สร้างภาพ
  • 12.6. เวิร์กโฟลว์ฝัง
  • 12.7. แก้ไข Seeds เพื่อประหยัดเวลา

13. ComfyUI ออนไลน์

1. ComfyUI คืออะไร? 🤔

ComfyUI เหมือนกับการมีไม้กายสิทธิ์ 🪄 สำหรับการสร้างงานศิลปะที่สร้างขึ้นโดย AI ที่น่าทึ่งได้อย่างง่ายดาย ที่แก่นของมัน ComfyUI คืออินเทอร์เฟซผู้ใช้แบบกราฟิก (GUI) ที่ใช้ Node ซึ่งสร้างขึ้นบน Stable Diffusion ซึ่งเป็นโมเดลการเรียนรู้เชิงลึกที่ล้ำสมัยที่สร้างภาพจากคำบรรยาย 🌟 แต่สิ่งที่ทำให้ ComfyUI พิเศษจริง ๆ คือมันช่วยให้ศิลปินอย่างคุณปลดปล่อยความคิดสร้างสรรค์และนำความคิดที่บ้าคลั่งที่สุดของคุณมาสู่ชีวิต

ลองนึกภาพผ้าใบดิจิตอลที่คุณสามารถสร้างเวิร์กโฟลว์การสร้างภาพที่ไม่ซ้ำกันของคุณเองโดยการเชื่อมต่อ Node ต่าง ๆ แต่ละ Node แทนการทำงานหรือการดำเนินการเฉพาะ 🧩 มันเหมือนกับการสร้างสูตรภาพสำหรับผลงานศิลปะที่สร้างขึ้นโดย AI ของคุณ!

ต้องการสร้างภาพจากศูนย์โดยใช้คำบรรยายข้อความ? มี Node สำหรับสิ่งนั้น! ต้องการใช้ตัวอย่างเฉพาะหรือปรับระดับเสียงรบกวน? เพียงเพิ่ม Node ที่เกี่ยวข้องและดูเวทมนตร์เกิดขึ้น ✨

แต่ส่วนที่ดีที่สุดคือ: ComfyUI แบ่งเวิร์กโฟลว์ออกเป็นองค์ประกอบที่สามารถจัดเรียงใหม่ได้ ทำให้คุณมีอิสระในการสร้างเวิร์กโฟลว์ที่กำหนดเองของคุณเองที่ปรับให้เข้ากับวิสัยทัศน์ศิลปะของคุณ 🖼️ มันเหมือนกับการมีชุดเครื่องมือส่วนบุคคลที่ปรับให้เข้ากับกระบวนการสร้างสรรค์ของคุณ

1.1. ComfyUI vs. AUTOMATIC1111 🆚

AUTOMATIC1111 เป็น GUI เริ่มต้นสำหรับ Stable Diffusion ดังนั้นคุณควรใช้ ComfyUI แทนหรือไม่? ลองเปรียบเทียบ:

✅ ข้อดีของการใช้ ComfyUI:

  1. เบา: ทำงานได้รวดเร็วและมีประสิทธิภาพ
  2. ยืดหยุ่น: ปรับแต่งได้สูงเพื่อตอบสนองความต้องการของคุณ
  3. โปร่งใส: การไหลของข้อมูลมองเห็นได้และเข้าใจง่าย
  4. ง่ายต่อการแบ่งปัน: แต่ละไฟล์แสดงถึงเวิร์กโฟลว์ที่สามารถทำซ้ำได้
  5. ดีสำหรับการสร้างต้นแบบ: สร้างต้นแบบด้วยอินเทอร์เฟซกราฟิกแทนการเขียนโค้ด

❌ ข้อเสียของการใช้ ComfyUI:

  1. อินเทอร์เฟซไม่สม่ำเสมอ: แต่ละเวิร์กโฟลว์อาจมีการจัดวาง Node ที่แตกต่างกัน
  2. รายละเอียดมากเกินไป: ผู้ใช้ทั่วไปอาจไม่จำเป็นต้องรู้การเชื่อมต่อที่อยู่เบื้องหลัง

1.2. จะเริ่มต้นกับ ComfyUI ที่ไหน? 🏁

เราเชื่อว่าวิธีที่ดีที่สุดในการเรียนรู้ ComfyUI คือการดำดิ่งลงไปในตัวอย่างและสัมผัสมันด้วยตัวเอง 🙌 นั่นคือเหตุผลที่เราสร้างการสอนที่เป็นเอกลักษณ์นี้ที่แตกต่างจากอื่น ๆ ในการสอนนี้ คุณจะพบคู่มือแบบละเอียดที่คุณสามารถทำตามได้

แต่ส่วนที่ดีที่สุดคือ: 🌟 เราได้รวม ComfyUI ไว้ในหน้านี้โดยตรง! คุณจะสามารถโต้ตอบกับตัวอย่าง ComfyUI แบบเรียลไทม์ขณะที่คุณก้าวผ่านคู่มือ 🌟 มาดำดิ่งกันเถอะ!

2. เวิร์กโฟลว์ของ ComfyUI: ข้อความเป็นภาพ 🖼️

เริ่มต้นด้วยกรณีที่ง่ายที่สุด: การสร้างภาพจากข้อความ คลิก Queue Prompt เพื่อเรียกใช้เวิร์กโฟลว์ หลังจากรอสักครู่ คุณควรเห็นภาพที่สร้างขึ้นครั้งแรกของคุณ! เพื่อตรวจสอบคิวของคุณ เพียงคลิก View Queue

นี่คือเวิร์กโฟลว์ข้อความเป็นภาพเริ่มต้นสำหรับคุณที่จะลอง:

บล็อกพื้นฐาน 🕹️

เวิร์กโฟลว์ของ ComfyUI ประกอบด้วยบล็อกพื้นฐานสองบล็อก: Nodes และ Edges

  • Nodes เป็นบล็อกสี่เหลี่ยมผืนผ้า เช่น Load Checkpoint, Clip Text Encoder เป็นต้น แต่ละ Node ดำเนินการโค้ดเฉพาะและต้องการอินพุต เอาต์พุต และพารามิเตอร์
  • Edges เป็นสายที่เชื่อมต่อเอาต์พุตและอินพุตระหว่าง Node

การควบคุมพื้นฐาน 🕹️

  • ซูมเข้าและออกโดยใช้ล้อเมาส์หรือการบีบสองนิ้ว
  • ลากและถือจุดอินพุตหรือเอาต์พุตเพื่อสร้างการเชื่อมต่อระหว่าง Node
  • เคลื่อนที่ไปรอบ ๆ พื้นที่ทำงานโดยการกดและลากด้วยปุ่มเมาส์ซ้าย

มาดำดิ่งในรายละเอียดของเวิร์กโฟลว์นี้กันเถอะ

ComfyUI workflow: text to image

2.1. การเลือกโมเดล 🗃️

ก่อนอื่น เลือกโมเดล Checkpoint ของ Stable Diffusion ใน Node Load Checkpoint คลิกที่ชื่อโมเดลเพื่อดูโมเดลที่มีอยู่ หากการคลิกชื่อโมเดลไม่ได้ทำอะไร คุณอาจต้องอัปโหลดโมเดลที่กำหนดเอง

2.2. การป้อนคำบวกและคำลบ 📝

คุณจะเห็นสอง Node ที่มีป้ายชื่อ CLIP Text Encode (Prompt) คำบรรยายด้านบนจะเชื่อมต่อกับอินพุต บวก ของ Node KSampler ขณะที่คำบรรยายด้านล่างจะเชื่อมต่อกับอินพุต ลบ ดังนั้นให้ป้อนคำบรรยายบวกของคุณในช่องด้านบนและคำบรรยายลบในช่องด้านล่าง

Node CLIP Text Encode จะแปลงคำบรรยายเป็นโทเค็นและเข้ารหัสเป็นการฝังโดยใช้ตัวเข้ารหัสข้อความ

💡 เคล็ดลับ: ใช้ไวยากรณ์ (keyword:weight) เพื่อควบคุมนํ้าหนักของคำหลัก เช่น (keyword:1.2) เพื่อเพิ่มผลหรือ (keyword:0.8) เพื่อลดผล

2.3. การสร้างภาพ 🎨

คลิก Queue Prompt เพื่อเรียกใช้เวิร์กโฟลว์ หลังจากรอสักครู่ ภาพแรกของคุณจะถูกสร้างขึ้น!

2.4. คำอธิบายทางเทคนิคของ ComfyUI 🤓

พลังของ ComfyUI อยู่ที่ความสามารถในการปรับแต่ง ความเข้าใจในสิ่งที่แต่ละ Node ทำช่วยให้คุณปรับแต่งให้เหมาะกับความต้องการของคุณ แต่ก่อนที่จะดำดิ่งลงในรายละเอียด มาดูที่กระบวนการ Stable Diffusion เพื่อเข้าใจวิธีการทำงานของ ComfyUI กันก่อน

กระบวนการ Stable Diffusion สามารถสรุปได้ในสามขั้นตอนหลัก:

  1. การเข้ารหัสข้อความ: คำบรรยายที่ป้อนโดยผู้ใช้จะถูกแปลงเป็นเวกเตอร์คุณลักษณะคำโดยส่วนประกอบที่เรียกว่าตัวเข้ารหัสข้อความ ขั้นตอนนี้จะแปลงข้อความเป็นรูปแบบที่โมเดลสามารถเข้าใจและทำงานได้
  2. การแปลงพื้นที่ Latent: เวกเตอร์คุณลักษณะจากตัวเข้ารหัสข้อความและภาพเสียงรบกวนแบบสุ่มจะถูกแปลงเป็นพื้นที่ Latent ในพื้นที่นี้ ภาพแบบสุ่มจะผ่านกระบวนการลดเสียงตามเวกเตอร์คุณลักษณะ ทำให้เกิดผลิตภัณฑ์ระหว่าง ขั้นตอนนี้เป็นที่ที่เวทมนตร์เกิดขึ้น โมเดลเรียนรู้ที่จะเชื่อมโยงคุณลักษณะข้อความกับการแสดงภาพ
  3. การถอดรหัสภาพ: สุดท้าย ผลิตภัณฑ์ระหว่างจากพื้นที่ Latent จะถูกถอดรหัสโดยตัวถอดรหัสภาพ แปลงให้เป็นภาพที่เราสามารถเห็นและชื่นชมได้

ตอนนี้เรามีความเข้าใจในกระบวนการ Stable Diffusion ระดับสูงแล้ว มาดูที่ส่วนประกอบและ Node สำคัญใน ComfyUI ที่ทำให้กระบวนการนี้เป็นไปได้

2.4.1 โหลด Checkpoint Node 🗃️

Node โหลด Checkpoint ใน ComfyUI มีความสำคัญในการเลือกโมเดล Stable Diffusion โมเดล Stable Diffusion ประกอบด้วยสามส่วนหลัก: MODEL, CLIP และ VAE มาสำรวจแต่ละส่วนประกอบและความสัมพันธ์กับ Node ที่เกี่ยวข้องใน ComfyUI กัน

  1. MODEL: ส่วนประกอบ MODEL เป็นโมเดลทำนายเสียงรบกวนที่ทำงานในพื้นที่ Latent มันมีหน้าที่หลักในการสร้างภาพจากการแทนที่ในพื้นที่ Latent ใน ComfyUI เอาต์พุต MODEL ของ Node โหลด Checkpoint จะเชื่อมต่อกับ Node KSampler ซึ่งกระบวนการ reverse diffusion จะเกิดขึ้น Node KSampler ใช้ MODEL เพื่อลดเสียงรบกวนในพื้นที่ Latent อย่างเป็นขั้นเป็นตอน ปรับแต่งภาพให้ตรงกับคำบรรยายที่ต้องการ
  2. CLIP: CLIP (Contrastive Language-Image Pre-training) เป็นโมเดลภาษาที่เตรียมคำบรรยายบวกและลบที่ผู้ใช้ให้มา มันแปลงคำบรรยายข้อความเป็นรูปแบบที่ MODEL สามารถเข้าใจและใช้เพื่อเป็นแนวทางในกระบวนการสร้างภาพ ใน ComfyUI เอาต์พุต CLIP ของ Node โหลด Checkpoint จะเชื่อมต่อกับ Node CLIP Text Encode Node CLIP Text Encode จะรับคำบรรยายที่ผู้ใช้ให้มาและป้อนเข้าสู่โมเดลภาษาของ CLIP แปลงแต่ละคำเป็นการฝัง การฝังเหล่านี้จับความหมายทางความหมายของคำและช่วยให้ MODEL สร้างภาพที่สอดคล้องกับคำบรรยายที่ให้มา
  3. VAE: VAE (Variational AutoEncoder) มีหน้าที่ในการแปลงภาพระหว่างพื้นที่พิกเซลและพื้นที่ Latent มันประกอบด้วยตัวเข้ารหัสที่บีบอัดภาพเป็นการแทนที่ในพื้นที่ Latent ที่มีมิติต่ำกว่าและตัวถอดรหัสที่สร้างภาพจากการแทนที่ในพื้นที่ Latent ในกระบวนการข้อความเป็นภาพ VAE จะใช้เฉพาะในขั้นตอนสุดท้ายเพื่อแปลงภาพที่สร้างขึ้นจากพื้นที่ Latent กลับไปยังพื้นที่พิกเซล Node VAE Decode ใน ComfyUI จะรับเอาต์พุตของ Node KSampler (ซึ่งทำงานในพื้นที่ Latent) และใช้ส่วนตัวถอดรหัสของ VAE เพื่อแปลงการแทนที่ในพื้นที่ Latent ให้เป็นภาพสุดท้ายในพื้นที่พิกเซล

สิ่งสำคัญคือต้องทราบว่า VAE เป็นส่วนประกอบแยกต่างหากจากโมเดลภาษาของ CLIP ขณะที่ CLIP มุ่งเน้นที่การประมวลผลคำบรรยายข้อความ VAE จัดการกับการแปลงระหว่างพื้นที่พิกเซลและพื้นที่ Latent

2.4.2. CLIP Text Encode 📝

Node CLIP Text Encode ใน ComfyUI มีหน้าที่ในการรับคำบรรยายที่ผู้ใช้ให้มาและป้อนเข้าสู่โมเดลภาษาของ CLIP CLIP เป็นโมเดลภาษาที่ทรงพลังที่เข้าใจความหมายทางความหมายของคำและสามารถเชื่อมโยงกับแนวคิดภาพ เมื่อป้อนคำบรรยายเข้าสู่ Node CLIP Text Encode มันจะผ่านกระบวนการแปลงที่แต่ละคำจะถูกแปลงเป็นการฝัง การฝังเหล่านี้เป็นเวกเตอร์ที่มีมิติสูงที่จับข้อมูลทางความหมายของคำ โดยการแปลงคำบรรยายเป็นการฝัง CLIP ช่วยให้ MODEL สร้างภาพที่สะท้อนความหมายและเจตนาของคำบรรยายที่ให้มาได้อย่างถูกต้อง

2.4.3. ภาพ Latent ว่างเปล่า 🌌

ในกระบวนการข้อความเป็นภาพ การสร้างเริ่มต้นด้วยภาพสุ่มในพื้นที่ Latent ภาพสุ่มนี้ทำหน้าที่เป็นสถานะเริ่มต้นสำหรับ MODEL ที่จะทำงานด้วย ขนาดของภาพ Latent เป็นสัดส่วนกับขนาดภาพจริงในพื้นที่พิกเซล ใน ComfyUI คุณสามารถปรับความสูงและความกว้างของภาพ Latent เพื่อ ควบคุมขนาดของภาพที่สร้างขึ้น นอกจากนี้คุณยังสามารถตั้งค่าขนาดแบทช์เพื่อกำหนดจำนวนภาพที่สร้างในแต่ละรอบ

ขนาดที่เหมาะสมสำหรับภาพ Latent ขึ้นอยู่กับโมเดล Stable Diffusion ที่ใช้ สำหรับโมเดล SD v1.5 ขนาดที่แนะนำคือ 512x512 หรือ 768x768 ขณะที่สำหรับโมเดล SDXL ขนาดที่เหมาะสมคือ 1024x1024 ComfyUI มีอัตราส่วนภาพทั่วไปให้เลือก เช่น 1:1 (สี่เหลี่ยมจัตุรัส), 3:2 (แนวนอน), 2:3 (แนวตั้ง), 4:3 (แนวนอน), 3:4 (แนวตั้ง), 16:9 (จอกว้าง) และ 9:16 (แนวตั้ง) สิ่งสำคัญคือต้องทราบว่าความกว้างและความสูงของภาพ Latent ต้องหารด้วย 8 ลงตัวเพื่อให้เข้ากับสถาปัตยกรรมของโมเดล

2.4.4. VAE 🔍

VAE (Variational AutoEncoder) เป็นส่วนประกอบสำคัญในโมเดล Stable Diffusion ที่จัดการการแปลงภาพระหว่างพื้นที่พิกเซลและพื้นที่ Latent มันประกอบด้วยสองส่วนหลัก: ตัวเข้ารหัสภาพและตัวถอดรหัสภาพ

ตัวเข้ารหัสภาพจะรับภาพในพื้นที่พิกเซลและบีบอัดเป็นการแทนที่ในพื้นที่ Latent ที่มีมิติต่ำกว่า กระบวนการบีบอัดนี้ลดขนาดข้อมูลอย่างมาก ทำให้สามารถประมวลผลและจัดเก็บได้มีประสิทธิภาพมากขึ้น ตัวอย่างเช่น ภาพขนาด 512x512 พิกเซลสามารถบีบอัดลงไปเป็นการแทนที่ในพื้นที่ Latent ขนาด 64x64

ในทางกลับกัน ตัวถอดรหัสภาพ หรือที่เรียกว่าตัวถอดรหัส VAE มีหน้าที่ในการสร้างภาพจากการแทนที่ในพื้นที่ Latent กลับไปยังพื้นที่พิกเซล มันรับการแทนที่ในพื้นที่ Latent ที่บีบอัดและขยายเพื่อสร้างภาพสุดท้าย

การใช้ VAE มีข้อดีหลายประการ:

  1. ประสิทธิภาพ: โดยการบีบอัดภาพเป็นพื้นที่ Latent ที่มีมิติต่ำกว่า VAE ทำให้สามารถสร้างได้เร็วขึ้นและใช้เวลาฝึกอบรมน้อยลง ขนาดข้อมูลที่ลดลงทำให้การประมวลผลและการใช้หน่วยความจำมีประสิทธิภาพมากขึ้น
  2. การจัดการพื้นที่ Latent: พื้นที่ Latent ให้การแทนที่ที่มีความหมายและกะทัดรัดมากขึ้นของภาพ ทำให้สามารถควบคุมและแก้ไขรายละเอียดและสไตล์ของภาพได้แม่นยำมากขึ้น โดยการจัดการการแทนที่ในพื้นที่ Latent ทำให้สามารถปรับเปลี่ยนลักษณะเฉพาะของภาพที่สร้างขึ้นได้

อย่างไรก็ตาม ยังมีข้อเสียบางประการที่ควรพิจารณา:

  1. ข้อมูลสูญหาย: ในระหว่างกระบวนการเข้ารหัสและถอดรหัส รายละเอียดบางส่วนของภาพต้นฉบับอาจสูญหาย กระบวนการบีบอัดและสร้างใหม่สามารถสร้างสิ่งแปลกปลอมหรือความแตกต่างเล็กน้อยในภาพสุดท้ายเมื่อเทียบกับภาพต้นฉบับ
  2. การจับข้อมูลต้นฉบับที่จำกัด: พื้นที่ Latent ที่มีมิติต่ำกว่าอาจไม่สามารถจับคุณลักษณะและรายละเอียดที่ซับซ้อนทั้งหมดของภาพต้นฉบับได้ ข้อมูลบางส่วนอาจสูญหายระหว่างกระบวนการบีบอัด ทำให้การแทนที่ภาพต้นฉบับไม่แม่นยำเล็กน้อย

แม้จะมีข้อจำกัดเหล่านี้ VAE มีบทบาทสำคัญในโมเดล Stable Diffusion โดยการทำให้สามารถแปลงระหว่างพื้นที่พิกเซลและพื้นที่ Latent ได้อย่างมีประสิทธิภาพ ช่วยให้การสร้างภาพเร็วขึ้นและมีการควบคุมรายละเอียดของภาพที่สร้างขึ้นได้แม่นยำมากขึ้น

2.4.5. KSampler ⚙️

Node KSampler ใน ComfyUI เป็นหัวใจของกระบวนการสร้างภาพใน Stable Diffusion มันมีหน้าที่ในการลดเสียงรบกวนในภาพสุ่มในพื้นที่ Latent เพื่อให้ตรงกับคำบรรยายที่ผู้ใช้ให้มา Node KSampler ใช้เทคนิคที่เรียกว่า reverse diffusion ซึ่งมันจะปรับแต่งการแทนที่ในพื้นที่ Latent อย่างเป็นขั้นเป็นตอนโดยการลบเสียงรบกวนและเพิ่มรายละเอียดที่มีความหมายตามคำแนะนำจากการฝัง CLIP

Node KSampler มีพารามิเตอร์หลายตัวที่ช่วยให้ผู้ใช้สามารถปรับแต่งกระบวนการสร้างภาพ:

Seed: ค่าซีดควบคุมเสียงรบกวนเริ่มต้นและองค์ประกอบของภาพสุดท้าย โดยการตั้งค่าซีดเฉพาะ ผู้ใช้สามารถได้รับผลลัพธ์ที่สามารถทำซ้ำได้และรักษาความสม่ำเสมอในหลายการสร้าง

Control_after_generation: พารามิเตอร์นี้กำหนดวิธีการเปลี่ยนค่าซีดหลังจากแต่ละการสร้าง มันสามารถตั้งค่าให้สุ่ม (สร้างซีดใหม่แบบสุ่มสำหรับแต่ละรอบ), เพิ่มขึ้น (เพิ่มค่าซีดทีละ 1), ลดลง (ลดค่าซีดทีละ 1) หรือคงที่ (รักษาค่าซีดคงที่)

Step: จำนวนขั้นตอนการสุ่มตัวอย่างกำหนดความเข้มของกระบวนการปรับแต่ง ค่าที่สูงขึ้นส่งผลให้มีสิ่งแปลกปลอมน้อยลงและภาพที่มีรายละเอียดมากขึ้น แต่ยังเพิ่มเวลาการสร้างด้วย

Sampler_name: พารามิเตอร์นี้ช่วยให้ผู้ใช้สามารถเลือกอัลกอริธึมการสุ่มตัวอย่างที่เฉพาะเจาะจงที่ใช้โดย KSampler อัลกอริธึมการสุ่มตัวอย่างที่แตกต่างกันอาจให้ผลลัพธ์ที่แตกต่างกันเล็กน้อยและมีความเร็วในการสร้างที่แตกต่างกัน

Scheduler: ตัวควบคุมกำหนดวิธีการเปลี่ยนระดับเสียงรบกวนในแต่ละขั้นตอนของกระบวนการลดเสียงรบกวน มันกำหนดอัตราการลบเสียงรบกวนจากการแทนที่ในพื้นที่ Latent

Denoise: พารามิเตอร์ denoise กำหนดปริมาณเสียงรบกวนเริ่มต้นที่ควรลบโดยกระบวนการลดเสียงรบกวน ค่าที่ 1 หมายความว่าจะลบเสียงรบกวนทั้งหมด ทำให้ได้ภาพที่สะอาดและมีรายละเอียด

โดยการปรับพารามิเตอร์เหล่านี้ คุณสามารถปรับแต่งกระบวนการสร้างภาพเพื่อให้ได้ผลลัพธ์ที่ต้องการ

ตอนนี้ คุณพร้อมที่จะเริ่มการเดินทางกับ ComfyUI หรือยัง?

ที่ RunComfy เราได้สร้างประสบการณ์ออนไลน์ ComfyUI ที่ดีที่สุดเพื่อคุณ กล่าวคำอำลากับการติดตั้งที่ซับซ้อน! 🎉 ลองใช้ ComfyUI ออนไลน์ตอนนี้ และปลดปล่อยศักยภาพทางศิลปะของคุณอย่างที่ไม่เคยมีมาก่อน! 🎉

3. เวิร์กโฟลว์ของ ComfyUI: ภาพเป็นภาพ 🖼️

เวิร์กโฟลว์ภาพเป็นภาพสร้างภาพตามคำบรรยายและภาพต้นฉบับ ลองทำด้วยตัวเอง!

ในการใช้เวิร์กโฟลว์ภาพเป็นภาพ:

  1. เลือกโมเดล Checkpoint
  2. อัปโหลดภาพเป็นภาพบรรยาย
  3. ปรับปรุงคำบรรยายบวกและลบ
  4. ปรับ denoise (ความแรงของการลดเสียงรบกวน) ใน Node KSampler ได้ตามต้องการ
  5. กด Queue Prompt เพื่อเริ่มการสร้าง
ComfyUI workflow: image to image

สำหรับเวิร์กโฟลว์ ComfyUI พรีเมียมเพิ่มเติม เยี่ยมชม 🌟รายการเวิร์กโฟลว์ ComfyUI🌟

4. ComfyUI SDXL 🚀

ขอบคุณความสามารถในการปรับแต่งที่สูง ComfyUI เป็นหนึ่งใน GUI แรกที่รองรับโมเดล Stable Diffusion XL ลองใช้งานกันเถอะ!

ในการใช้เวิร์กโฟลว์ ComfyUI SDXL:

  1. ปรับปรุงคำบรรยายบวกและลบ
  2. กด Queue Prompt เพื่อเริ่มการสร้าง

5. ComfyUI Inpainting 🎨

มาดำดิ่งในสิ่งที่ซับซ้อนมากขึ้น: inpainting! เมื่อคุณมีภาพที่ยอดเยี่ยมแต่ต้องการแก้ไขส่วนเฉพาะ inpainting เป็นวิธีที่ดีที่สุด ลองใช้งานที่นี่!

ในการใช้เวิร์กโฟลว์ inpainting:

  1. อัปโหลดภาพที่คุณต้องการ inpaint
  2. คลิกขวาที่ภาพและเลือก "Open in MaskEditor" ทำการมาร์กพื้นที่ที่ต้องการสร้างใหม่ แล้วคลิก "Save to node" ComfyUI workflow: inpainting
  3. เลือกโมเดล Checkpoint:
    • เวิร์กโฟลว์นี้ทำงานได้เฉพาะกับโมเดล Stable Diffusion มาตรฐาน ไม่ใช่โมเดล Inpainting
    • หากคุณต้องการใช้โมเดล inpainting โปรดเปลี่ยน Node "VAE Encode" และ "Set Noise Latent Mask" เป็น Node "VAE Encode (Inpaint)" ซึ่งออกแบบมาเฉพาะสำหรับโมเดล inpainting
  4. ปรับแต่งกระบวนการ inpainting:
    • ใน Node CLIP Text Encode (Prompt) คุณสามารถป้อนข้อมูลเพิ่มเติมเพื่อแนะนำการ inpainting ตัวอย่างเช่น คุณสามารถระบุสไตล์ ธีม หรือองค์ประกอบที่คุณต้องการรวมไว้ในพื้นที่ inpainting
  5. ตั้งค่าความแรงของการลดเสียงรบกวนเริ่มต้น (denoise) เช่น 0.6
  6. กด Queue Prompt เพื่อทำการ inpainting
ComfyUI inpainting workflow

6. ComfyUI Outpainting 🖌️

Outpainting เป็นอีกหนึ่งเทคนิคที่น่าตื่นเต้นที่ช่วยให้คุณขยายภาพของคุณเกินขอบเขตเดิม 🌆 มันเหมือนกับการมีผืนผ้าใบที่ไม่มีที่สิ้นสุดในการทำงาน!

ในการใช้เวิร์กโฟลว์ ComfyUI Outpainting:

  1. เริ่มต้นด้วยภาพที่คุณต้องการขยาย
  2. ใช้ Node Pad Image for Outpainting ในเวิร์กโฟลว์ของคุณ
  3. กำหนดการตั้งค่า outpainting:
    • ซ้าย บน ขวา ล่าง: ระบุจำนวนพิกเซลที่จะขยายในแต่ละทิศทาง
    • การผสม: ปรับความเรียบของการเปลี่ยนแปลงระหว่างภาพต้นฉบับและพื้นที่ outpainting ค่าที่สูงขึ้นจะสร้างการผสมที่ค่อยเป็นค่อยไปมากขึ้น แต่สามารถทำให้เกิดผลการเบลอได้
  4. ปรับแต่งกระบวนการ outpainting:
    • ใน Node CLIP Text Encode (Prompt) คุณสามารถป้อนข้อมูลเพิ่มเติมเพื่อแนะนำการ outpainting ตัวอย่างเช่น คุณสามารถระบุสไตล์ ธีม หรือองค์ประกอบที่คุณต้องการรวมไว้ในพื้นที่ขยาย
    • ทดลองกับคำบรรยายต่าง ๆ เพื่อให้ได้ผลลัพธ์ที่ต้องการ
  5. ปรับแต่ง Node VAE Encode (สำหรับ inpainting):
    • ปรับพารามิเตอร์ grow_mask_by เพื่อควบคุมขนาดของมาสก์ outpainting ค่าที่มากกว่า 10 แนะนำเพื่อผลลัพธ์ที่ดีที่สุด
  6. กด Queue Prompt เพื่อเริ่มกระบวนการ outpainting
ComfyUI outpainting workflow

สำหรับเวิร์กโฟลว์ inpainting/outpainting พรีเมียมเพิ่มเติม เยี่ยมชม 🌟รายการเวิร์กโฟลว์ ComfyUI🌟

7. ComfyUI Upscale ⬆️

ต่อไป มาสำรวจการขยายภาพของ ComfyUI เราจะแนะนำเวิร์กโฟลว์พื้นฐานสามแบบเพื่อช่วยให้คุณขยายภาพได้อย่างมีประสิทธิภาพ

มีสองวิธีหลักในการขยายภาพ:

  1. ขยายพิกเซล: ขยายภาพที่มองเห็นได้โดยตรง
    • อินพุต: ภาพ, เอาต์พุต: ภาพที่ขยาย
  2. ขยายพื้นที่ Latent: ขยายภาพที่มองไม่เห็นในพื้นที่ Latent
    • อินพุต: latent, เอาต พุต: latent ที่ขยาย (ต้องการการถอดรหัสเพื่อกลายเป็นภาพที่มองเห็นได้)

7.1. Upscale Pixel 🖼️

สองวิธีในการทำเช่นนี้:

  1. ใช้อัลกอริธึม: ความเร็วในการสร้างเร็วที่สุด แต่ผลลัพธ์ที่ด้อยกว่านิดหน่อยเมื่อเทียบกับโมเดล
  2. ใช้โมเดล: ผลลัพธ์ที่ดีกว่า แต่เวลาการสร้างช้าลง

7.1.1. Upscale Pixel โดย Algorithm 🧮

  • เพิ่ม Node Upscale Image by
  • พารามิเตอร์ method: เลือกอัลกอริธึมการขยาย (bicubic, bilinear, nearest-exact)
  • พารามิเตอร์ Scale: ระบุปัจจัยการขยาย (เช่น 2 สำหรับ 2x)
ComfyUI Upscale Pixel by Algorithm

7.1.2. Upscale Pixel โดย Model 🤖

  • เพิ่ม Node Upscale Image (using Model)
  • เพิ่ม Node Load Upscale Model
  • เลือกโมเดลที่เหมาะสมกับประเภทภาพของคุณ (เช่น anime หรือ real-life)
  • เลือกปัจจัยการขยาย (X2 หรือ X4)
ComfyUI Upscale Pixel by Model

7.2. Upscale Latent ⚙️

อีกวิธีหนึ่งในการขยายภาพคือ Upscale Latent หรือที่เรียกว่า Hi-res Latent Fix Upscale ซึ่งขยายโดยตรงในพื้นที่ Latent

ComfyUI Upscale Latent

7.3. Upscale Pixel vs. Upscale Latent 🆚

  • Upscale Pixel: ขยายภาพเท่านั้นโดยไม่เพิ่มข้อมูลใหม่ ความเร็วในการสร้างเร็วกว่า แต่สามารถเกิดผลการเบลอและขาดรายละเอียด
  • Upscale Latent: นอกจากการขยาย ยังเปลี่ยนข้อมูลบางส่วนของภาพต้นฉบับ เพิ่มรายละเอียดได้มากขึ้น อาจเบี่ยงเบนจากภาพต้นฉบับและมีความเร็วในการสร้างช้ากว่า

สำหรับเวิร์กโฟลว์ restore/upscale พรีเมียมเพิ่มเติม เยี่ยมชม 🌟รายการเวิร์กโฟลว์ ComfyUI🌟

8. ComfyUI ControlNet 🎮

เตรียมพร้อมที่จะยกระดับศิลปะ AI ของคุณไปอีกขั้นด้วย ControlNet เทคโนโลยีที่เปลี่ยนแปลงการสร้างภาพ!

ControlNet เหมือนกับไม้กายสิทธิ์ 🪄 ที่มอบการควบคุมที่ไม่เคยมีมาก่อนในภาพที่สร้างขึ้นโดย AI ของคุณ มันทำงานร่วมกับโมเดลที่ทรงพลังเช่น Stable Diffusion เพิ่มความสามารถของพวกเขาและช่วยให้คุณสามารถนำกระบวนการสร้างภาพได้อย่างที่ไม่เคยมีมาก่อน!

ลองนึกภาพการสามารถระบุขอบเขต ท่าทางมนุษย์ ความลึก หรือแม้แต่แผนที่การแบ่งส่วนของภาพที่คุณต้องการ 🌠 ด้วย ControlNet คุณสามารถทำเช่นนั้นได้!

หากคุณกระตือรือร้นที่จะดำดิ่งลึกลงไปในโลกของ ControlNet และปลดปล่อยศักยภาพของมันอย่างเต็มที่ เรามีคุณครอบคลุมแล้ว เช็คเอาท์การสอนรายละเอียดของเราเกี่ยวกับ การเชี่ยวชาญ ControlNet ใน ComfyUI! 📚 มันเต็มไปด้วยคู่มือแบบละเอียดและตัวอย่างที่น่าสนใจเพื่อช่วยให้คุณกลายเป็นมือโปร ControlNet 🏆

9. ComfyUI Manager 🛠️

ComfyUI Manager เป็น Node ที่กำหนดเองที่ช่วยให้คุณสามารถติดตั้งและอัปเดต Node ที่กำหนดเองอื่น ๆ ผ่านอินเทอร์เฟซของ ComfyUI คุณจะพบปุ่ม Manager ในเมนู Queue Prompt

9.1. วิธีการติดตั้ง Custom Nodes ที่ขาดหายไป 📥

หากเวิร์กโฟลว์ต้องการ Custom Nodes ที่คุณยังไม่ได้ติดตั้ง ทำตามขั้นตอนเหล่านี้:

  1. คลิก Manager ในเมนู
  2. คลิก Install Missing Custom Nodes
  3. รีสตาร์ท ComfyUI อย่างสมบูรณ์
  4. รีเฟรชเบราว์เซอร์

9.2. วิธีการอัปเดต Custom Nodes 🔄

  1. คลิก Manager ในเมนู
  2. คลิก Fetch Updates (อาจใช้เวลาสักครู่)
  3. คลิก Install Custom Nodes
  4. หากมีการอัปเดต ปุ่ม Update จะปรากฏข้าง Node ที่ติดตั้งไว้
  5. คลิก Update เพื่ออัปเดต Node
  6. รีสตาร์ท ComfyUI
  7. รีเฟรชเบราว์เซอร์
ComfyUI Manager

9.3. วิธีการโหลด Custom Nodes ในเวิร์กโฟลว์ของคุณ 🔍

ดับเบิลคลิกพื้นที่ว่างเพื่อเปิดเมนูค้นหา Node

ComfyUI Manager

10. ComfyUI Embeddings 📝

Embeddings หรือที่รู้จักกันในชื่อ textual inversion เป็นฟีเจอร์ที่ทรงพลังใน ComfyUI ที่ช่วยให้คุณสามารถฉีดแนวคิดหรือสไตล์ที่กำหนดเองเข้าสู่ภาพที่สร้างขึ้นโดย AI 💡 มันเหมือนกับการสอน AI คำหรือวลีใหม่และเชื่อมโยงกับลักษณะภาพเฉพาะ

ในการใช้ embeddings ใน ComfyUI เพียงพิมพ์ "embedding:" ตามด้วยชื่อ embedding ของคุณในกล่องคำบรรยายบวกหรือลบ ตัวอย่างเช่น:

embedding: BadDream

ComfyUI Embeddings

เมื่อคุณใช้คำบรรยายนี้ ComfyUI จะค้นหาไฟล์ embedding ชื่อ "BadDream" ในโฟลเดอร์ ComfyUI > models > embeddings 📂 หากพบการจับคู่ มันจะใช้ลักษณะภาพที่สอดคล้องกับภาพที่สร้างขึ้นของคุณ

Embeddings เป็นวิธีที่ยอดเยี่ยมในการปรับแต่งศิลปะ AI ของคุณและบรรลุสไตล์หรือสุนทรียภาพเฉพาะ 🎨 คุณสามารถสร้าง embeddings ของคุณเองโดยการฝึกอบรมพวกเขาบนชุดภาพที่แสดงแนวคิดหรือสไตล์ที่ต้องการ

10.1. การฝังด้วย Autocomplete 🔠

การจดจำชื่อ embeddings ของคุณทั้งหมดอาจเป็นเรื่องยาก โดยเฉพาะอย่างยิ่งหากคุณมีคอลเลกชันขนาดใหญ่ 😅 นั่นคือที่มาของ Node ที่กำหนดเอง ComfyUI-Custom-Scripts เพื่อช่วยเหลือ!

ในการเปิดใช้งานการเติมชื่อ embedding อัตโนมัติ:

  1. เปิด ComfyUI Manager โดยคลิกที่ "Manager" ในเมนูด้านบน
  2. ไปที่ "Install Custom nodes" และค้นหา "ComfyUI-Custom-Scripts"
  3. คลิกที่ "Install" เพื่อเพิ่ม Node ที่กำหนดเองใน ComfyUI ของคุณ
  4. รีสตาร์ท ComfyUI เพื่อใช้การเปลี่ยนแปลง

เมื่อคุณมี Node ComfyUI-Custom-Scripts ติดตั้งแล้ว คุณจะได้รับประสบการณ์ที่เป็นมิตรกับผู้ใช้มากขึ้นในการใช้ embeddings 😊 เพียงเริ่มพิมพ์ "embedding:" ในกล่องคำบรรยาย และรายการ embeddings ที่มีอยู่จะปรากฏขึ้น จากนั้นคุณสามารถเลือก embedding ที่ต้องการจากรายการ ประหยัดเวลาและความพยายาม!

10.2. นํ้าหนักการฝัง ⚖️

คุณรู้ไหมว่าคุณสามารถควบคุมน้ำหนักของ embeddings ของคุณได้? 💪 เนื่องจาก embeddings เป็นคำหลัก คุณสามารถใช้การนํ้าหนักกับพวกเขาได้เช่นเดียวกับคำหลักปกติในคำบรรยายของคุณ

ในการปรับน้ำหนักของ embedding ใช้ไวยากรณ์ต่อไปนี้:

(embedding: BadDream:1.2)

ในตัวอย่างนี้ น้ำหนักของ embedding "BadDream" จะเพิ่มขึ้น 20% ดังนั้นน้ำหนักที่สูงขึ้น (เช่น 1.2) จะทำให้ embedding มีผลมากขึ้น ขณะที่น้ำหนักที่ต่ำกว่า (เช่น 0.8) จะลดผลของมัน 🎚️ สิ่งนี้ช่วยให้คุณสามารถควบคุมผลลัพธ์สุดท้ายได้มากขึ้น!

11. ComfyUI LoRA 🧩

LoRA หรือชื่อเต็มว่า Low-rank Adaptation เป็นอีกหนึ่งฟีเจอร์ที่น่าตื่นเต้นใน ComfyUI ที่ช่วยให้คุณสามารถปรับแต่งและปรับโมเดล Checkpoint ของคุณได้ 🎨 มันเหมือนกับการเพิ่มโมเดลเล็ก ๆ ที่เชี่ยวชาญเฉพาะบนโมเดลพื้นฐานของคุณเพื่อบรรลุสไตล์เฉพาะหรือรวมองค์ประกอบที่กำหนดเอง

โมเดล LoRA มีขนาดกะทัดรัดและมีประสิทธิภาพ ทำให้ง่ายต่อการใช้งานและแบ่งปัน พวกเขามักใช้สำหรับงานเช่นการปรับเปลี่ยนสไตล์ศิลปะของภาพหรือการฉีดบุคคลหรือวัตถุเฉพาะเข้าสู่ผลลัพธ์ที่สร้างขึ้น

เมื่อคุณใช้โมเดล LoRA กับโมเดล Checkpoint มันจะปรับเปลี่ยนส่วนประกอบ MODEL และ CLIP ขณะที่ปล่อยให้ VAE (Variational Autoencoder) ไม่ถูกปรับเปลี่ยน ซึ่งหมายความว่า LoRA มุ่งเน้นที่การปรับเนื้อหาและสไตล์ของภาพโดยไม่เปลี่ยนโครงสร้างโดยรวมของภาพ

11.1. วิธีการใช้ LoRA 🔧

การใช้ LoRA ใน ComfyUI เป็นเรื่องง่าย มาดูวิธีที่ง่ายที่สุดกันเถอะ:

  1. เลือกโมเดล Checkpoint ที่ใช้เป็นพื้นฐานสำหรับการสร้างภาพของคุณ
  2. เลือกโมเดล LoRA ที่คุณต้องการใช้เพื่อปรับแต่งสไตล์หรือฉีดองค์ประกอบเฉพาะ
  3. ปรับปรุงคำบรรยายบวกและลบเพื่อแนะนำกระบวนการสร้างภาพ
  4. คลิกที่ "Queue Prompt" เพื่อเริ่มการสร้างภาพด้วย LoRA ที่ใช้แล้ว ▶

ComfyUI จะรวมโมเดล Checkpoint และโมเดล LoRA เพื่อสร้างภาพที่สะท้อนคำบรรยายที่ระบุและรวมการปรับเปลี่ยนที่แนะนำโดย LoRA

11.2. หลาย LoRAs 🧩🧩

แต่ถ้าคุณต้องการใช้หลาย LoRAs กับภาพเดียวกัน? ไม่มีปัญหา! ComfyUI ช่วยให้คุณสามารถใช้หลาย LoRAs ในเวิร์กโฟลว์ข้อความเป็นภาพเดียวกัน

ComfyUI LoRA

กระบวนการนี้คล้ายกับการใช้ LoRA เดียว แต่คุณจะต้องเลือกหลายโมเดล LoRA แทนที่จะเป็นเพียงหนึ่งเดียว ComfyUI จะใช้ LoRAs ตามลำดับ ซึ่งหมายความว่าแต่ละ LoRA จะปรับเปลี่ยนตามการปรับเปลี่ยนที่แนะนำโดย LoRA ก่อนหน้า

สิ่งนี้เปิดโอกาสใหม่ในการรวมสไตล์ องค์ประกอบ และการปรับเปลี่ยนที่แตกต่างกันในภาพที่สร้างขึ้นโดย AI ของคุณ 🌍💡 ทดลองกับการรวม LoRA ต่าง ๆ เพื่อให้ได้ผลลัพธ์ที่ไม่ซ้ำใครและสร้างสรรค์!

12. ทางลัดและเคล็ดลับสำหรับ ComfyUI ⌨️🖱️

12.1. คัดลอกและวาง 📋

  • เลือก Node และกด Ctrl+C เพื่อคัดลอก
  • กด Ctrl+V เพื่อวาง
  • กด Ctrl+Shift+V เพื่อวางโดยรักษาการเชื่อมต่ออินพุต

12.2. การย้ายหลาย Node 🖱️

  • สร้างกลุ่มเพื่อย้ายชุด Node ด้วยกัน
  • หรือกด Ctrl และลากเพื่อสร้างกล่องเพื่อเลือกหลาย Node หรือกด Ctrl เพื่อเลือกหลาย Node ทีละตัว
  • ในการย้าย Node ที่เลือก กด Shift และเลื่อนเมาส์

12.3. ข้าม Node 🔇

  • ปิดการใช้งาน Node ชั่วคราวโดยการปิดเสียง เลือก Node และกด Ctrl+M
  • ไม่มีทางลัดคีย์บอร์ดในการปิดเสียงกลุ่ม เลือก Bypass Group Node ในเมนูคลิกขวาหรือปิดเสียง Node แรกในกลุ่มเพื่อปิดการใช้งาน

12.4. ย่อ Node 🔍

  • คลิกจุดที่มุมซ้ายบนของ Node เพื่อย่อ

12.5. สร้างภาพ ▶️

  • กด Ctrl+Enter เพื่อใส่เวิร์กโฟลว์ในคิวและสร้างภาพ

12.6. เวิร์กโฟลว์ฝัง 🖼️

  • ComfyUI บันทึกเวิร์กโฟลว์ทั้งหมดในข้อมูลเมตาของไฟล์ PNG ที่สร้างขึ้น ในการโหลดเวิร์กโฟลว์ ลากและวางภาพลงใน ComfyUI

12.7. แก้ไข Seeds เพื่อประหยัดเวลา ⏰

  • ComfyUI จะรัน Node ใหม่เฉพาะเมื่ออินพุตเปลี่ยนแปลง เมื่อทำงานกับโซ่ Node ยาว ประหยัดเวลาโดยการแก้ไขซีดเพื่อหลีกเลี่ยงการสร้างผลลัพธ์ต้นน้ำใหม่

13. ComfyUI ออนไลน์ 🚀

ขอแสดงความยินดีที่เสร็จสิ้นคู่มือเริ่มต้นสำหรับ ComfyUI! 🙌 ตอนนี้คุณพร้อมที่จะดำดิ่งในโลกที่น่าตื่นเต้นของการสร้างศิลปะ AI แล้ว แต่ทำไมต้องยุ่งยากกับการติดตั้งเมื่อคุณสามารถเริ่มสร้างได้ทันที? 🤔

ที่ RunComfy เราทำให้มันง่ายสำหรับคุณที่จะใช้ ComfyUI ออนไลน์โดยไม่ต้องตั้งค่าใด ๆ บริการ ComfyUI ออนไลน์ของเรามาพร้อมกับ Node และโมเดลยอดนิยมกว่า 200+ รายการ พร้อมกับเวิร์กโฟลว์ที่น่าทึ่งกว่า 50+ รายการเพื่อสร้างแรงบันดาลใจให้กับการสร้างสรรค์ของคุณ

🌟 ไม่ว่าคุณจะเป็นผู้เริ่มต้นหรือศิลปิน AI ที่มีประสบการณ์ RunComfy มีทุกสิ่งที่คุณต้องการเพื่อนำวิสัยทัศน์ทางศิลปะของคุณมาสู่ชีวิต 💡 อย่ารอช้า – ลองใช้ ComfyUI ออนไลน์ตอนนี้ และสัมผัสพลังของการสร้างศิลปะ AI ที่ปลายนิ้วของคุณ! 🚀

RunComfy

© ลิขสิทธิ์ 2024 RunComfy. สงวนลิขสิทธิ์

RunComfy เป็นผู้นำ ComfyUI แพลตฟอร์มที่นำเสนอ ComfyUI ออนไลน์ สภาพแวดล้อมและบริการ พร้อมด้วย เวิร์กโฟลว์ ComfyUI ที่มีภาพที่น่าทึ่ง