[ลือ] Apple ค้นพบรายละเอียดใหม่เกี่ยวกับโมเดล AI ใช้ชื่อว่า “MM1” อาจเตรียมไปใช้กับ AI ของตัวเอง

มีข่าวลือมาว่านักพัฒนาของแอปเปิลกำลังพัฒนาโมเดลภาษาขนาดใหญ่ หรือ LLMs ที่จะช่วยผสานทั้งข้อมูลของตัวอักษร และรูปภาพ โดยบริษัทได้ค้นพบถึงรีเสิร์ชเรื่อง MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training และคาดว่าจะนำไปใช้กับการสร้าง AI ของตัวเองด้วยครับ

โดยแนวทางใหม่ในการสร้างระบบ AI จะมีความยืดหยุ่น และมีความฉลาดมากขึ้น เพราะใช้ชุดข้อมูลที่หลากหลายประกอบกันทั้งตัวอักษรของข้อความ และรูปภาพ

ซึ่งแอปเปิลมองว่าโมเดล MM1 จะช่วยสร้างมาตรฐานใหม่ให้กับ AI ในการทำงานต่าง ๆ เช่น ใช้ในการบรรยายภาพ ตอบคำถามด้วยภาพอย่างเป็นธรรมชาติมากขึ้น เพราะมีการอนุมานภาษาต่าง ๆ ที่แม่นยำแบบขั้นสูง

จากที่การวิจัยของแอปเปิลเน้นไปที่การเทรนโมเดลด้วยข้อมูลอยู่แล้ว ก็ยิ่งจะทำให้ AI สามารถเข้าใจโมเดลภาษา และสร้างภาษาที่อิงจากการผสมกันระหว่างภาพ และภาษาได้มากขึ้น ทำให้ตีความภาพที่ซับซ้อน หรือตอบคำถามที่เกี่ยวกับองค์ประกอบภาพได้

ซึ่งโมเดล MM1 ก็ตอบโจทย์ตรงนี้มาก ด้วยความสามารถในการเรียนรู้ และให้เหตุผลแบบหลายขั้นตอนได้ ด้วยการแสดงกระบวนการคิดเป็นทอด ๆ แบบลูกโซ่ ซึ่งเป็นอีกเทคนิคที่จะช่วยให้ AI แก้ปัญหาปลายเปิดที่ซับซ้อนจากตัวอย่างได้

และหากแอปเปิลสามารถนำงานวิจัยนี้มาประยุกต์ใช้กับการสร้าง AI ของตัวเองได้จริง ก็น่าจะเพิ่มขีดความสามารถของ AI ในตลาดที่กำลังแข่งขันกันอยู่ทุกวันนี้ได้น่าสนใจไม่น้อยครับ อย่างที่ Mark Gurman เคยรายงานไป

ว่าแอปเปิลกำลังหารือกับกูเกิลเพื่ออนุญาตให้ใช้โมเดลภาษาขนาดใหญ่อย่าง Gemini มาใช้บนไอโฟนได้มากขึ้น และเป็นส่วนหนึ่งที่อัปเดตมาพร้อมกับ iOS 18 ด้วย แต่จะจริงหรือไม่ต้องรอดูกันครับ

ที่มา – https://www.macrumors.com/2024/03/18/apple-mm1-ai-model-details/