ขั้นตอนการทำงานของ ComfyUI Vid2Vid ซึ่งสร้างโดย YVANN นำเสนอขั้นตอนการทำงานที่แตกต่างกันสองแบบเพื่อสร้างแอนิเมชันคุณภาพสูงระดับมืออาชีพ
ขั้นตอนการทำงานนี้ช่วยเพิ่มความคิดสร้างสรรค์โดยมุ่งเน้นที่การจัดองค์ประกอบและการทำหน้ากากของวิดีโอต้นฉบับของคุณ
เลือกโมเดลที่เหมาะสมสำหรับแอนิเมชันของคุณ ซึ่งรวมถึงการเลือกโมเดล checkpoint, โมเดล VAE (Variational Autoencoder) และโมเดล LoRA (Low-Rank Adaptation) โมเดลเหล่านี้มีความสำคัญในการกำหนดความสามารถและสไตล์ของแอนิเมชันของคุณ
โหนด Input Video มีหน้าที่นำเข้าวิดีโอไฟล์ที่จะใช้ในการสร้างแอนิเมชัน โหนดนี้จะอ่านวิดีโอและแปลงเป็นเฟรมแต่ละเฟรม ซึ่งจะถูกประมวลผลในขั้นตอนถัดไป ทำให้สามารถแก้ไขและเพิ่มรายละเอียดเฟรมต่อเฟรมได้
Remove Background (Auto Masking) แยกวัตถุจากพื้นหลังโดยใช้เทคนิคการทำหน้ากากอัตโนมัติ ซึ่งรวมถึงการใช้โมเดลที่ตรวจจับและแยกวัตถุหลักออกจากพื้นหลังสร้างหน้ากากแบบไบนารี ขั้นตอนนี้มีความสำคัญในการทำให้วัตถุสามารถปรับแต่งได้โดยไม่เกี่ยวข้องกับพื้นหลัง
ขั้นตอนนี้ช่วยในการปรับแต่งหน้ากากที่สร้างขึ้นในขั้นตอนก่อนหน้านี้ คุณสามารถทำหน้ากากในพื้นที่เฉพาะด้วยตนเองโดยใช้ซอฟต์แวร์อื่นหรือใช้คุณลักษณะการทำหน้ากากอัตโนมัติของ ComfyUI 'Segment Anything'
เวอร์ชันเริ่มต้นใช้หน้ากากด้วยตนเอง หากคุณต้องการลองใช้หน้ากากอัตโนมัติ โปรดข้ามกลุ่มหน้ากากด้วยตนเองและเปิดใช้งานกลุ่มหน้ากากอัตโนมัติ นอกจากนี้ ให้เชื่อมต่อ MASK ของ 'GroundingDinoSAM' (หน้ากากอัตโนมัติ) กับ 'GrowMaskWithBlur' แทนที่จะเชื่อมต่อ 'ImageToMask' (หน้ากากด้วยตนเอง) กับ 'GrowMaskWithBlur'
Transform Mask แปลงหน้ากากเป็นภาพและอนุญาตให้ปรับแต่งเพิ่มเติมเช่นการเพิ่มความเบลอให้กับหน้ากากเดิม ช่วยในการทำให้ขอบนุ่มขึ้นและทำให้หน้ากากผสมผสานอย่างเป็นธรรมชาติกับภาพที่เหลือ
ใส่ prompt ข้อความเพื่อแนะนำกระบวนการแอนิเมชัน prompt สามารถอธิบายสไตล์ ลักษณะ หรือการกระทำของวัตถุได้ มีความสำคัญในการกำหนดทิศทางความคิดสร้างสรรค์ของแอนิเมชัน เพื่อให้ผลลัพธ์สุดท้ายตรงกับสไตล์ศิลปะที่คาดหวัง
โหนด AnimateDiff สร้างแอนิเมชันที่ราบรื่นโดยการระบุความแตกต่างระหว่างเฟรมต่อเนื่องและนำการเปลี่ยนแปลงเหล่านี้ไปใช้ทีละน้อย ช่วยในการรักษาความสอดคล้องของการเคลื่อนไหวและลดการเปลี่ยนแปลงที่กระทันหันในแอนิเมชัน ทำให้ดูราบรื่นและเป็นธรรมชาติมากขึ้น
โหนด IPAdapter ปรับภาพนำเข้าให้ตรงกับสไตล์หรือคุณลักษณะที่ต้องการ ซึ่งรวมถึงงานเช่นการใส่สีและการถ่ายโอนสไตล์ เพื่อให้แต่ละเฟรมของแอนิเมชันมีลักษณะและความรู้สึกที่สอดคล้องกัน
การใช้ ControlNet - v1.1 - Instruct Pix2Pix Version model ช่วยเพิ่มประสิทธิภาพของ diffusion models โดยทำให้สามารถประมวลผลเงื่อนไขนำเข้าที่เพิ่มเติมได้ (เช่น edge maps, segmentation maps) ช่วยในการสร้างภาพจากข้อความโดยการควบคุมโมเดลที่ผ่านการฝึกฝนเหล่านี้ด้วยเงื่อนไขเฉพาะงานในลักษณะ end-to-end ทำให้สามารถเรียนรู้ได้อย่างแม่นยำแม้จะมีชุดข้อมูลที่เล็กลง
ในขั้นตอน Render เฟรมที่ประมวลผลจะถูกประกอบเป็นวิดีโอสุดท้าย ขั้นตอนนี้ทำให้เฟรมแต่ละเฟรมรวมกันเป็นแอนิเมชันที่สอดคล้องกัน พร้อมสำหรับการส่งออกและการใช้งานต่อไป
นี้เกี่ยวข้องกับการประกอบวัตถุที่เคลื่อนไหวกับพื้นหลัง คุณสามารถเพิ่มพื้นหลังที่เป็นภาพนิ่งหรือภาพเคลื่อนไหวลงในแอนิเมชัน เพื่อให้วัตถุรวมเข้ากับพื้นหลังใหม่ได้อย่างราบรื่น เพื่อสร้างผลิตภัณฑ์สุดท้ายที่มีความน่าสนใจทางสายตา
โดยการใช้ขั้นตอนการทำงานของ ComfyUI Vid2Vid Part1 คุณสามารถสร้างแอนิเมชันที่ซับซ้อนด้วยการควบคุมที่แม่นยำในทุกด้านของกระบวนการ ตั้งแต่การจัดองค์ประกอบและการทำหน้ากากจนถึงการเรนเดอร์สุดท้าย
© ลิขสิทธิ์ 2024 RunComfy. สงวนลิขสิทธิ์