Make-a-Video AI ใหม่ของ Meta สามารถสร้างคลิปภาพยนตร์อย่างรวดเร็วจากข้อความแจ้ง

Mกทพ. ได้เปิดตัว AI การสร้างข้อความเป็นภาพ Make-a-Scene ในเดือนกรกฎาคมซึ่งชอบ Dall-E และ กลางการเดินทางใช้อัลกอริธึมการเรียนรู้ของเครื่อง (และฐานข้อมูลขนาดใหญ่ของอาร์ตเวิร์กออนไลน์ที่คัดลอกมา) เพื่อสร้างการแสดงข้อความแจ้งที่เป็นลายลักษณ์อักษรที่น่าอัศจรรย์ ในวันพฤหัสบดี Mark Zuckerberg ซีอีโอของ Meta ได้เปิดเผย Make-a-Video ร่วมสมัยที่มีชีวิตชีวามากขึ้นของ Make-a-Scene

ตามชื่อของมัน Make-a-Video คือ "ระบบ AI ใหม่ที่ช่วยให้ผู้คนเปลี่ยนข้อความแจ้งเป็นคลิปวิดีโอคุณภาพสูงสั้นๆ" Zuckerberg เขียนในบล็อก Meta เมื่อวันพฤหัสบดี การทำงาน วิดีโอทำงานในลักษณะเดียวกับที่ Scene ทำ โดยอาศัยการประมวลผลภาษาธรรมชาติผสมกันและโครงข่ายประสาทเทียมเพื่อแปลงข้อความแจ้งที่ไม่ใช่ภาพเป็นภาพ เพียงแค่ดึงเนื้อหาในรูปแบบอื่น

“สัญชาตญาณของเรานั้นเรียบง่าย: เรียนรู้ว่าโลกเป็นอย่างไรและอธิบายโลกอย่างไรจากข้อมูลภาพข้อความที่จับคู่กัน และเรียนรู้ว่าโลกเคลื่อนไปจากวิดีโอฟุตเทจที่ไม่มีผู้ดูแลอย่างไร” ทีมนักวิจัย Meta เขียนไว้ในรายงานการวิจัยที่ตีพิมพ์เมื่อเช้าวันพฤหัสบดี การทำเช่นนี้ทำให้ทีมสามารถลดระยะเวลาที่จำเป็นในการฝึกโมเดลวิดีโอและขจัดความจำเป็นในการจับคู่ข้อมูลวิดีโอแบบข้อความ ในขณะเดียวกันก็รักษา "ความกว้างใหญ่ (ความหลากหลายในด้านสุนทรียศาสตร์ การถ่ายทอดภาพที่น่าอัศจรรย์ ฯลฯ) ของโมเดลการสร้างภาพในปัจจุบัน ”   

เช่นเดียวกับการวิจัย AI ของ Meta ส่วนใหญ่ Make-a-Video กำลังเปิดตัวเป็นโครงการโอเพนซอร์ซ "เราต้องการไตร่ตรองถึงวิธีที่เราสร้างระบบ AI กำเนิดใหม่เช่นนี้" Zuckerberg กล่าว “เรากำลังเปิดเผยผลการวิจัยและผลการวิจัย AI กำเนิดนี้อย่างเปิดเผยกับชุมชนสำหรับข้อเสนอแนะของพวกเขา และจะใช้เฟรมเวิร์ก AI ที่รับผิดชอบของเราต่อไปเพื่อปรับแต่งและพัฒนาแนวทางของเราต่อเทคโนโลยีที่เกิดขึ้นใหม่นี้” 

เช่นเดียวกับ AI กำเนิดทุกตัวที่ปล่อยออกมา โอกาสในการใช้ Make-a-Video ในทางที่ผิดไม่ใช่เรื่องเล็ก ทีมวิจัยได้ขัดจังหวะชุดข้อมูลการฝึกอบรม Make-a-Video ของภาพ NSFW และการใช้ถ้อยคำที่เป็นพิษ     

ผลิตภัณฑ์ทั้งหมดที่แนะนำโดย Engadget ได้รับการคัดเลือกโดยทีมบรรณาธิการของเรา โดยไม่ขึ้นกับบริษัทแม่ของเรา เรื่องราวของเราบางส่วนรวมถึงลิงค์พันธมิตร หากคุณซื้อบางอย่างผ่านลิงก์ใดลิงก์หนึ่งเหล่านี้ เราอาจได้รับค่าคอมมิชชั่นจากพันธมิตร ราคาทั้งหมดถูกต้องในขณะที่เผยแพร่

แหล่ง