Updated: 5/27/2024
สวัสดีศิลปิน AI ทุกคน! 👋 ยินดีต้อนรับสู่การสอนที่เป็นมิตรกับผู้เริ่มต้นของเราเกี่ยวกับ ComfyUI ซึ่งเป็นเครื่องมือที่ทรงพลังและยืดหยุ่นสำหรับการสร้างงานศิลปะที่สร้างขึ้นโดย AI ที่น่าทึ่ง 🎨 ในคู่มือนี้ เราจะพาคุณผ่านพื้นฐานของ ComfyUI สำรวจฟีเจอร์ของมัน และช่วยให้คุณปลดล็อกศักยภาพของมันเพื่อยกระดับงานศิลปะ AI ของคุณ 🚀
เราจะครอบคลุม:
ComfyUI เหมือนกับการมีไม้กายสิทธิ์ 🪄 สำหรับการสร้างงานศิลปะที่สร้างขึ้นโดย AI ที่น่าทึ่งได้อย่างง่ายดาย ที่แก่นของมัน ComfyUI คืออินเทอร์เฟซผู้ใช้แบบกราฟิก (GUI) ที่ใช้ Node ซึ่งสร้างขึ้นบน Stable Diffusion ซึ่งเป็นโมเดลการเรียนรู้เชิงลึกที่ล้ำสมัยที่สร้างภาพจากคำบรรยาย 🌟 แต่สิ่งที่ทำให้ ComfyUI พิเศษจริง ๆ คือมันช่วยให้ศิลปินอย่างคุณปลดปล่อยความคิดสร้างสรรค์และนำความคิดที่บ้าคลั่งที่สุดของคุณมาสู่ชีวิต
ลองนึกภาพผ้าใบดิจิตอลที่คุณสามารถสร้างเวิร์กโฟลว์การสร้างภาพที่ไม่ซ้ำกันของคุณเองโดยการเชื่อมต่อ Node ต่าง ๆ แต่ละ Node แทนการทำงานหรือการดำเนินการเฉพาะ 🧩 มันเหมือนกับการสร้างสูตรภาพสำหรับผลงานศิลปะที่สร้างขึ้นโดย AI ของคุณ!
ต้องการสร้างภาพจากศูนย์โดยใช้คำบรรยายข้อความ? มี Node สำหรับสิ่งนั้น! ต้องการใช้ตัวอย่างเฉพาะหรือปรับระดับเสียงรบกวน? เพียงเพิ่ม Node ที่เกี่ยวข้องและดูเวทมนตร์เกิดขึ้น ✨
แต่ส่วนที่ดีที่สุดคือ: ComfyUI แบ่งเวิร์กโฟลว์ออกเป็นองค์ประกอบที่สามารถจัดเรียงใหม่ได้ ทำให้คุณมีอิสระในการสร้างเวิร์กโฟลว์ที่กำหนดเองของคุณเองที่ปรับให้เข้ากับวิสัยทัศน์ศิลปะของคุณ 🖼️ มันเหมือนกับการมีชุดเครื่องมือส่วนบุคคลที่ปรับให้เข้ากับกระบวนการสร้างสรรค์ของคุณ
AUTOMATIC1111 เป็น GUI เริ่มต้นสำหรับ Stable Diffusion ดังนั้นคุณควรใช้ ComfyUI แทนหรือไม่? ลองเปรียบเทียบ:
✅ ข้อดีของการใช้ ComfyUI:
❌ ข้อเสียของการใช้ ComfyUI:
เราเชื่อว่าวิธีที่ดีที่สุดในการเรียนรู้ ComfyUI คือการดำดิ่งลงไปในตัวอย่างและสัมผัสมันด้วยตัวเอง 🙌 นั่นคือเหตุผลที่เราสร้างการสอนที่เป็นเอกลักษณ์นี้ที่แตกต่างจากอื่น ๆ ในการสอนนี้ คุณจะพบคู่มือแบบละเอียดที่คุณสามารถทำตามได้
แต่ส่วนที่ดีที่สุดคือ: 🌟 เราได้รวม ComfyUI ไว้ในหน้านี้โดยตรง! คุณจะสามารถโต้ตอบกับตัวอย่าง ComfyUI แบบเรียลไทม์ขณะที่คุณก้าวผ่านคู่มือ 🌟 มาดำดิ่งกันเถอะ!
เริ่มต้นด้วยกรณีที่ง่ายที่สุด: การสร้างภาพจากข้อความ คลิก Queue Prompt เพื่อเรียกใช้เวิร์กโฟลว์ หลังจากรอสักครู่ คุณควรเห็นภาพที่สร้างขึ้นครั้งแรกของคุณ! เพื่อตรวจสอบคิวของคุณ เพียงคลิก View Queue
นี่คือเวิร์กโฟลว์ข้อความเป็นภาพเริ่มต้นสำหรับคุณที่จะลอง:
เวิร์กโฟลว์ของ ComfyUI ประกอบด้วยบล็อกพื้นฐานสองบล็อก: Nodes และ Edges
ก่อนอื่น เลือกโมเดล Checkpoint ของ Stable Diffusion ใน Node Load Checkpoint คลิกที่ชื่อโมเดลเพื่อดูโมเดลที่มีอยู่ หากการคลิกชื่อโมเดลไม่ได้ทำอะไร คุณอาจต้องอัปโหลดโมเดลที่กำหนดเอง
คุณจะเห็นสอง Node ที่มีป้ายชื่อ CLIP Text Encode (Prompt) คำบรรยายด้านบนจะเชื่อมต่อกับอินพุต บวก ของ Node KSampler ขณะที่คำบรรยายด้านล่างจะเชื่อมต่อกับอินพุต ลบ ดังนั้นให้ป้อนคำบรรยายบวกของคุณในช่องด้านบนและคำบรรยายลบในช่องด้านล่าง
Node CLIP Text Encode จะแปลงคำบรรยายเป็นโทเค็นและเข้ารหัสเป็นการฝังโดยใช้ตัวเข้ารหัสข้อความ
💡 เคล็ดลับ: ใช้ไวยากรณ์ (keyword:weight) เพื่อควบคุมนํ้าหนักของคำหลัก เช่น (keyword:1.2) เพื่อเพิ่มผลหรือ (keyword:0.8) เพื่อลดผล
คลิก Queue Prompt เพื่อเรียกใช้เวิร์กโฟลว์ หลังจากรอสักครู่ ภาพแรกของคุณจะถูกสร้างขึ้น!
พลังของ ComfyUI อยู่ที่ความสามารถในการปรับแต่ง ความเข้าใจในสิ่งที่แต่ละ Node ทำช่วยให้คุณปรับแต่งให้เหมาะกับความต้องการของคุณ แต่ก่อนที่จะดำดิ่งลงในรายละเอียด มาดูที่กระบวนการ Stable Diffusion เพื่อเข้าใจวิธีการทำงานของ ComfyUI กันก่อน
กระบวนการ Stable Diffusion สามารถสรุปได้ในสามขั้นตอนหลัก:
ตอนนี้เรามีความเข้าใจในกระบวนการ Stable Diffusion ระดับสูงแล้ว มาดูที่ส่วนประกอบและ Node สำคัญใน ComfyUI ที่ทำให้กระบวนการนี้เป็นไปได้
Node โหลด Checkpoint ใน ComfyUI มีความสำคัญในการเลือกโมเดล Stable Diffusion โมเดล Stable Diffusion ประกอบด้วยสามส่วนหลัก: MODEL, CLIP และ VAE มาสำรวจแต่ละส่วนประกอบและความสัมพันธ์กับ Node ที่เกี่ยวข้องใน ComfyUI กัน
สิ่งสำคัญคือต้องทราบว่า VAE เป็นส่วนประกอบแยกต่างหากจากโมเดลภาษาของ CLIP ขณะที่ CLIP มุ่งเน้นที่การประมวลผลคำบรรยายข้อความ VAE จัดการกับการแปลงระหว่างพื้นที่พิกเซลและพื้นที่ Latent
Node CLIP Text Encode ใน ComfyUI มีหน้าที่ในการรับคำบรรยายที่ผู้ใช้ให้มาและป้อนเข้าสู่โมเดลภาษาของ CLIP CLIP เป็นโมเดลภาษาที่ทรงพลังที่เข้าใจความหมายทางความหมายของคำและสามารถเชื่อมโยงกับแนวคิดภาพ เมื่อป้อนคำบรรยายเข้าสู่ Node CLIP Text Encode มันจะผ่านกระบวนการแปลงที่แต่ละคำจะถูกแปลงเป็นการฝัง การฝังเหล่านี้เป็นเวกเตอร์ที่มีมิติสูงที่จับข้อมูลทางความหมายของคำ โดยการแปลงคำบรรยายเป็นการฝัง CLIP ช่วยให้ MODEL สร้างภาพที่สะท้อนความหมายและเจตนาของคำบรรยายที่ให้มาได้อย่างถูกต้อง
ในกระบวนการข้อความเป็นภาพ การสร้างเริ่มต้นด้วยภาพสุ่มในพื้นที่ Latent ภาพสุ่มนี้ทำหน้าที่เป็นสถานะเริ่มต้นสำหรับ MODEL ที่จะทำงานด้วย ขนาดของภาพ Latent เป็นสัดส่วนกับขนาดภาพจริงในพื้นที่พิกเซล ใน ComfyUI คุณสามารถปรับความสูงและความกว้างของภาพ Latent เพื่อ ควบคุมขนาดของภาพที่สร้างขึ้น นอกจากนี้คุณยังสามารถตั้งค่าขนาดแบทช์เพื่อกำหนดจำนวนภาพที่สร้างในแต่ละรอบ
ขนาดที่เหมาะสมสำหรับภาพ Latent ขึ้นอยู่กับโมเดล Stable Diffusion ที่ใช้ สำหรับโมเดล SD v1.5 ขนาดที่แนะนำคือ 512x512 หรือ 768x768 ขณะที่สำหรับโมเดล SDXL ขนาดที่เหมาะสมคือ 1024x1024 ComfyUI มีอัตราส่วนภาพทั่วไปให้เลือก เช่น 1:1 (สี่เหลี่ยมจัตุรัส), 3:2 (แนวนอน), 2:3 (แนวตั้ง), 4:3 (แนวนอน), 3:4 (แนวตั้ง), 16:9 (จอกว้าง) และ 9:16 (แนวตั้ง) สิ่งสำคัญคือต้องทราบว่าความกว้างและความสูงของภาพ Latent ต้องหารด้วย 8 ลงตัวเพื่อให้เข้ากับสถาปัตยกรรมของโมเดล
VAE (Variational AutoEncoder) เป็นส่วนประกอบสำคัญในโมเดล Stable Diffusion ที่จัดการการแปลงภาพระหว่างพื้นที่พิกเซลและพื้นที่ Latent มันประกอบด้วยสองส่วนหลัก: ตัวเข้ารหัสภาพและตัวถอดรหัสภาพ
ตัวเข้ารหัสภาพจะรับภาพในพื้นที่พิกเซลและบีบอัดเป็นการแทนที่ในพื้นที่ Latent ที่มีมิติต่ำกว่า กระบวนการบีบอัดนี้ลดขนาดข้อมูลอย่างมาก ทำให้สามารถประมวลผลและจัดเก็บได้มีประสิทธิภาพมากขึ้น ตัวอย่างเช่น ภาพขนาด 512x512 พิกเซลสามารถบีบอัดลงไปเป็นการแทนที่ในพื้นที่ Latent ขนาด 64x64
ในทางกลับกัน ตัวถอดรหัสภาพ หรือที่เรียกว่าตัวถอดรหัส VAE มีหน้าที่ในการสร้างภาพจากการแทนที่ในพื้นที่ Latent กลับไปยังพื้นที่พิกเซล มันรับการแทนที่ในพื้นที่ Latent ที่บีบอัดและขยายเพื่อสร้างภาพสุดท้าย
การใช้ VAE มีข้อดีหลายประการ:
อย่างไรก็ตาม ยังมีข้อเสียบางประการที่ควรพิจารณา:
แม้จะมีข้อจำกัดเหล่านี้ VAE มีบทบาทสำคัญในโมเดล Stable Diffusion โดยการทำให้สามารถแปลงระหว่างพื้นที่พิกเซลและพื้นที่ Latent ได้อย่างมีประสิทธิภาพ ช่วยให้การสร้างภาพเร็วขึ้นและมีการควบคุมรายละเอียดของภาพที่สร้างขึ้นได้แม่นยำมากขึ้น
Node KSampler ใน ComfyUI เป็นหัวใจของกระบวนการสร้างภาพใน Stable Diffusion มันมีหน้าที่ในการลดเสียงรบกวนในภาพสุ่มในพื้นที่ Latent เพื่อให้ตรงกับคำบรรยายที่ผู้ใช้ให้มา Node KSampler ใช้เทคนิคที่เรียกว่า reverse diffusion ซึ่งมันจะปรับแต่งการแทนที่ในพื้นที่ Latent อย่างเป็นขั้นเป็นตอนโดยการลบเสียงรบกวนและเพิ่มรายละเอียดที่มีความหมายตามคำแนะนำจากการฝัง CLIP
Node KSampler มีพารามิเตอร์หลายตัวที่ช่วยให้ผู้ใช้สามารถปรับแต่งกระบวนการสร้างภาพ:
Seed: ค่าซีดควบคุมเสียงรบกวนเริ่มต้นและองค์ประกอบของภาพสุดท้าย โดยการตั้งค่าซีดเฉพาะ ผู้ใช้สามารถได้รับผลลัพธ์ที่สามารถทำซ้ำได้และรักษาความสม่ำเสมอในหลายการสร้าง
Control_after_generation: พารามิเตอร์นี้กำหนดวิธีการเปลี่ยนค่าซีดหลังจากแต่ละการสร้าง มันสามารถตั้งค่าให้สุ่ม (สร้างซีดใหม่แบบสุ่มสำหรับแต่ละรอบ), เพิ่มขึ้น (เพิ่มค่าซีดทีละ 1), ลดลง (ลดค่าซีดทีละ 1) หรือคงที่ (รักษาค่าซีดคงที่)
Step: จำนวนขั้นตอนการสุ่มตัวอย่างกำหนดความเข้มของกระบวนการปรับแต่ง ค่าที่สูงขึ้นส่งผลให้มีสิ่งแปลกปลอมน้อยลงและภาพที่มีรายละเอียดมากขึ้น แต่ยังเพิ่มเวลาการสร้างด้วย
Sampler_name: พารามิเตอร์นี้ช่วยให้ผู้ใช้สามารถเลือกอัลกอริธึมการสุ่มตัวอย่างที่เฉพาะเจาะจงที่ใช้โดย KSampler อัลกอริธึมการสุ่มตัวอย่างที่แตกต่างกันอาจให้ผลลัพธ์ที่แตกต่างกันเล็กน้อยและมีความเร็วในการสร้างที่แตกต่างกัน
Scheduler: ตัวควบคุมกำหนดวิธีการเปลี่ยนระดับเสียงรบกวนในแต่ละขั้นตอนของกระบวนการลดเสียงรบกวน มันกำหนดอัตราการลบเสียงรบกวนจากการแทนที่ในพื้นที่ Latent
Denoise: พารามิเตอร์ denoise กำหนดปริมาณเสียงรบกวนเริ่มต้นที่ควรลบโดยกระบวนการลดเสียงรบกวน ค่าที่ 1 หมายความว่าจะลบเสียงรบกวนทั้งหมด ทำให้ได้ภาพที่สะอาดและมีรายละเอียด
โดยการปรับพารามิเตอร์เหล่านี้ คุณสามารถปรับแต่งกระบวนการสร้างภาพเพื่อให้ได้ผลลัพธ์ที่ต้องการ
ที่ RunComfy เราได้สร้างประสบการณ์ออนไลน์ ComfyUI ที่ดีที่สุดเพื่อคุณ กล่าวคำอำลากับการติดตั้งที่ซับซ้อน! 🎉 ลองใช้ ComfyUI ออนไลน์ตอนนี้ และปลดปล่อยศักยภาพทางศิลปะของคุณอย่างที่ไม่เคยมีมาก่อน! 🎉
เวิร์กโฟลว์ภาพเป็นภาพสร้างภาพตามคำบรรยายและภาพต้นฉบับ ลองทำด้วยตัวเอง!
ในการใช้เวิร์กโฟลว์ภาพเป็นภาพ:
สำหรับเวิร์กโฟลว์ ComfyUI พรีเมียมเพิ่มเติม เยี่ยมชม 🌟รายการเวิร์กโฟลว์ ComfyUI🌟
ขอบคุณความสามารถในการปรับแต่งที่สูง ComfyUI เป็นหนึ่งใน GUI แรกที่รองรับโมเดล Stable Diffusion XL ลองใช้งานกันเถอะ!
ในการใช้เวิร์กโฟลว์ ComfyUI SDXL:
มาดำดิ่งในสิ่งที่ซับซ้อนมากขึ้น: inpainting! เมื่อคุณมีภาพที่ยอดเยี่ยมแต่ต้องการแก้ไขส่วนเฉพาะ inpainting เป็นวิธีที่ดีที่สุด ลองใช้งานที่นี่!
ในการใช้เวิร์กโฟลว์ inpainting:
Outpainting เป็นอีกหนึ่งเทคนิคที่น่าตื่นเต้นที่ช่วยให้คุณขยายภาพของคุณเกินขอบเขตเดิม 🌆 มันเหมือนกับการมีผืนผ้าใบที่ไม่มีที่สิ้นสุดในการทำงาน!
ในการใช้เวิร์กโฟลว์ ComfyUI Outpainting:
สำหรับเวิร์กโฟลว์ inpainting/outpainting พรีเมียมเพิ่มเติม เยี่ยมชม 🌟รายการเวิร์กโฟลว์ ComfyUI🌟
ต่อไป มาสำรวจการขยายภาพของ ComfyUI เราจะแนะนำเวิร์กโฟลว์พื้นฐานสามแบบเพื่อช่วยให้คุณขยายภาพได้อย่างมีประสิทธิภาพ
มีสองวิธีหลักในการขยายภาพ:
สองวิธีในการทำเช่นนี้:
อีกวิธีหนึ่งในการขยายภาพคือ Upscale Latent หรือที่เรียกว่า Hi-res Latent Fix Upscale ซึ่งขยายโดยตรงในพื้นที่ Latent
สำหรับเวิร์กโฟลว์ restore/upscale พรีเมียมเพิ่มเติม เยี่ยมชม 🌟รายการเวิร์กโฟลว์ ComfyUI🌟
เตรียมพร้อมที่จะยกระดับศิลปะ AI ของคุณไปอีกขั้นด้วย ControlNet เทคโนโลยีที่เปลี่ยนแปลงการสร้างภาพ!
ControlNet เหมือนกับไม้กายสิทธิ์ 🪄 ที่มอบการควบคุมที่ไม่เคยมีมาก่อนในภาพที่สร้างขึ้นโดย AI ของคุณ มันทำงานร่วมกับโมเดลที่ทรงพลังเช่น Stable Diffusion เพิ่มความสามารถของพวกเขาและช่วยให้คุณสามารถนำกระบวนการสร้างภาพได้อย่างที่ไม่เคยมีมาก่อน!
ลองนึกภาพการสามารถระบุขอบเขต ท่าทางมนุษย์ ความลึก หรือแม้แต่แผนที่การแบ่งส่วนของภาพที่คุณต้องการ 🌠 ด้วย ControlNet คุณสามารถทำเช่นนั้นได้!
หากคุณกระตือรือร้นที่จะดำดิ่งลึกลงไปในโลกของ ControlNet และปลดปล่อยศักยภาพของมันอย่างเต็มที่ เรามีคุณครอบคลุมแล้ว เช็คเอาท์การสอนรายละเอียดของเราเกี่ยวกับ การเชี่ยวชาญ ControlNet ใน ComfyUI! 📚 มันเต็มไปด้วยคู่มือแบบละเอียดและตัวอย่างที่น่าสนใจเพื่อช่วยให้คุณกลายเป็นมือโปร ControlNet 🏆
ComfyUI Manager เป็น Node ที่กำหนดเองที่ช่วยให้คุณสามารถติดตั้งและอัปเดต Node ที่กำหนดเองอื่น ๆ ผ่านอินเทอร์เฟซของ ComfyUI คุณจะพบปุ่ม Manager ในเมนู Queue Prompt
หากเวิร์กโฟลว์ต้องการ Custom Nodes ที่คุณยังไม่ได้ติดตั้ง ทำตามขั้นตอนเหล่านี้:
ดับเบิลคลิกพื้นที่ว่างเพื่อเปิดเมนูค้นหา Node
Embeddings หรือที่รู้จักกันในชื่อ textual inversion เป็นฟีเจอร์ที่ทรงพลังใน ComfyUI ที่ช่วยให้คุณสามารถฉีดแนวคิดหรือสไตล์ที่กำหนดเองเข้าสู่ภาพที่สร้างขึ้นโดย AI 💡 มันเหมือนกับการสอน AI คำหรือวลีใหม่และเชื่อมโยงกับลักษณะภาพเฉพาะ
ในการใช้ embeddings ใน ComfyUI เพียงพิมพ์ "embedding:" ตามด้วยชื่อ embedding ของคุณในกล่องคำบรรยายบวกหรือลบ ตัวอย่างเช่น:
embedding: BadDream
เมื่อคุณใช้คำบรรยายนี้ ComfyUI จะค้นหาไฟล์ embedding ชื่อ "BadDream" ในโฟลเดอร์ ComfyUI > models > embeddings 📂 หากพบการจับคู่ มันจะใช้ลักษณะภาพที่สอดคล้องกับภาพที่สร้างขึ้นของคุณ
Embeddings เป็นวิธีที่ยอดเยี่ยมในการปรับแต่งศิลปะ AI ของคุณและบรรลุสไตล์หรือสุนทรียภาพเฉพาะ 🎨 คุณสามารถสร้าง embeddings ของคุณเองโดยการฝึกอบรมพวกเขาบนชุดภาพที่แสดงแนวคิดหรือสไตล์ที่ต้องการ
การจดจำชื่อ embeddings ของคุณทั้งหมดอาจเป็นเรื่องยาก โดยเฉพาะอย่างยิ่งหากคุณมีคอลเลกชันขนาดใหญ่ 😅 นั่นคือที่มาของ Node ที่กำหนดเอง ComfyUI-Custom-Scripts เพื่อช่วยเหลือ!
ในการเปิดใช้งานการเติมชื่อ embedding อัตโนมัติ:
เมื่อคุณมี Node ComfyUI-Custom-Scripts ติดตั้งแล้ว คุณจะได้รับประสบการณ์ที่เป็นมิตรกับผู้ใช้มากขึ้นในการใช้ embeddings 😊 เพียงเริ่มพิมพ์ "embedding:" ในกล่องคำบรรยาย และรายการ embeddings ที่มีอยู่จะปรากฏขึ้น จากนั้นคุณสามารถเลือก embedding ที่ต้องการจากรายการ ประหยัดเวลาและความพยายาม!
คุณรู้ไหมว่าคุณสามารถควบคุมน้ำหนักของ embeddings ของคุณได้? 💪 เนื่องจาก embeddings เป็นคำหลัก คุณสามารถใช้การนํ้าหนักกับพวกเขาได้เช่นเดียวกับคำหลักปกติในคำบรรยายของคุณ
ในการปรับน้ำหนักของ embedding ใช้ไวยากรณ์ต่อไปนี้:
(embedding: BadDream:1.2)
ในตัวอย่างนี้ น้ำหนักของ embedding "BadDream" จะเพิ่มขึ้น 20% ดังนั้นน้ำหนักที่สูงขึ้น (เช่น 1.2) จะทำให้ embedding มีผลมากขึ้น ขณะที่น้ำหนักที่ต่ำกว่า (เช่น 0.8) จะลดผลของมัน 🎚️ สิ่งนี้ช่วยให้คุณสามารถควบคุมผลลัพธ์สุดท้ายได้มากขึ้น!
LoRA หรือชื่อเต็มว่า Low-rank Adaptation เป็นอีกหนึ่งฟีเจอร์ที่น่าตื่นเต้นใน ComfyUI ที่ช่วยให้คุณสามารถปรับแต่งและปรับโมเดล Checkpoint ของคุณได้ 🎨 มันเหมือนกับการเพิ่มโมเดลเล็ก ๆ ที่เชี่ยวชาญเฉพาะบนโมเดลพื้นฐานของคุณเพื่อบรรลุสไตล์เฉพาะหรือรวมองค์ประกอบที่กำหนดเอง
โมเดล LoRA มีขนาดกะทัดรัดและมีประสิทธิภาพ ทำให้ง่ายต่อการใช้งานและแบ่งปัน พวกเขามักใช้สำหรับงานเช่นการปรับเปลี่ยนสไตล์ศิลปะของภาพหรือการฉีดบุคคลหรือวัตถุเฉพาะเข้าสู่ผลลัพธ์ที่สร้างขึ้น
เมื่อคุณใช้โมเดล LoRA กับโมเดล Checkpoint มันจะปรับเปลี่ยนส่วนประกอบ MODEL และ CLIP ขณะที่ปล่อยให้ VAE (Variational Autoencoder) ไม่ถูกปรับเปลี่ยน ซึ่งหมายความว่า LoRA มุ่งเน้นที่การปรับเนื้อหาและสไตล์ของภาพโดยไม่เปลี่ยนโครงสร้างโดยรวมของภาพ
การใช้ LoRA ใน ComfyUI เป็นเรื่องง่าย มาดูวิธีที่ง่ายที่สุดกันเถอะ:
ComfyUI จะรวมโมเดล Checkpoint และโมเดล LoRA เพื่อสร้างภาพที่สะท้อนคำบรรยายที่ระบุและรวมการปรับเปลี่ยนที่แนะนำโดย LoRA
แต่ถ้าคุณต้องการใช้หลาย LoRAs กับภาพเดียวกัน? ไม่มีปัญหา! ComfyUI ช่วยให้คุณสามารถใช้หลาย LoRAs ในเวิร์กโฟลว์ข้อความเป็นภาพเดียวกัน
กระบวนการนี้คล้ายกับการใช้ LoRA เดียว แต่คุณจะต้องเลือกหลายโมเดล LoRA แทนที่จะเป็นเพียงหนึ่งเดียว ComfyUI จะใช้ LoRAs ตามลำดับ ซึ่งหมายความว่าแต่ละ LoRA จะปรับเปลี่ยนตามการปรับเปลี่ยนที่แนะนำโดย LoRA ก่อนหน้า
สิ่งนี้เปิดโอกาสใหม่ในการรวมสไตล์ องค์ประกอบ และการปรับเปลี่ยนที่แตกต่างกันในภาพที่สร้างขึ้นโดย AI ของคุณ 🌍💡 ทดลองกับการรวม LoRA ต่าง ๆ เพื่อให้ได้ผลลัพธ์ที่ไม่ซ้ำใครและสร้างสรรค์!
ขอแสดงความยินดีที่เสร็จสิ้นคู่มือเริ่มต้นสำหรับ ComfyUI! 🙌 ตอนนี้คุณพร้อมที่จะดำดิ่งในโลกที่น่าตื่นเต้นของการสร้างศิลปะ AI แล้ว แต่ทำไมต้องยุ่งยากกับการติดตั้งเมื่อคุณสามารถเริ่มสร้างได้ทันที? 🤔
ที่ RunComfy เราทำให้มันง่ายสำหรับคุณที่จะใช้ ComfyUI ออนไลน์โดยไม่ต้องตั้งค่าใด ๆ บริการ ComfyUI ออนไลน์ของเรามาพร้อมกับ Node และโมเดลยอดนิยมกว่า 200+ รายการ พร้อมกับเวิร์กโฟลว์ที่น่าทึ่งกว่า 50+ รายการเพื่อสร้างแรงบันดาลใจให้กับการสร้างสรรค์ของคุณ
🌟 ไม่ว่าคุณจะเป็นผู้เริ่มต้นหรือศิลปิน AI ที่มีประสบการณ์ RunComfy มีทุกสิ่งที่คุณต้องการเพื่อนำวิสัยทัศน์ทางศิลปะของคุณมาสู่ชีวิต 💡 อย่ารอช้า – ลองใช้ ComfyUI ออนไลน์ตอนนี้ และสัมผัสพลังของการสร้างศิลปะ AI ที่ปลายนิ้วของคุณ! 🚀
© ลิขสิทธิ์ 2024 RunComfy. สงวนลิขสิทธิ์