[ลือ] Apple ค้นพบรายละเอียดใหม่เกี่ยวกับโมเดล AI ใช้ชื่อว่า “MM1” อาจเตรียมไปใช้กับ AI ของตัวเอง
มีข่าวลือมาว่านักพัฒนาของแอปเปิลกำลังพัฒนาโมเดลภาษาขนาดใหญ่ หรือ LLMs ที่จะช่วยผสานทั้งข้อมูลของตัวอักษร และรูปภาพ โดยบริษัทได้ค้นพบถึงรีเสิร์ชเรื่อง MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training และคาดว่าจะนำไปใช้กับการสร้าง AI ของตัวเองด้วยครับ
โดยแนวทางใหม่ในการสร้างระบบ AI จะมีความยืดหยุ่น และมีความฉลาดมากขึ้น เพราะใช้ชุดข้อมูลที่หลากหลายประกอบกันทั้งตัวอักษรของข้อความ และรูปภาพ
ซึ่งแอปเปิลมองว่าโมเดล MM1 จะช่วยสร้างมาตรฐานใหม่ให้กับ AI ในการทำงานต่าง ๆ เช่น ใช้ในการบรรยายภาพ ตอบคำถามด้วยภาพอย่างเป็นธรรมชาติมากขึ้น เพราะมีการอนุมานภาษาต่าง ๆ ที่แม่นยำแบบขั้นสูง
จากที่การวิจัยของแอปเปิลเน้นไปที่การเทรนโมเดลด้วยข้อมูลอยู่แล้ว ก็ยิ่งจะทำให้ AI สามารถเข้าใจโมเดลภาษา และสร้างภาษาที่อิงจากการผสมกันระหว่างภาพ และภาษาได้มากขึ้น ทำให้ตีความภาพที่ซับซ้อน หรือตอบคำถามที่เกี่ยวกับองค์ประกอบภาพได้
ซึ่งโมเดล MM1 ก็ตอบโจทย์ตรงนี้มาก ด้วยความสามารถในการเรียนรู้ และให้เหตุผลแบบหลายขั้นตอนได้ ด้วยการแสดงกระบวนการคิดเป็นทอด ๆ แบบลูกโซ่ ซึ่งเป็นอีกเทคนิคที่จะช่วยให้ AI แก้ปัญหาปลายเปิดที่ซับซ้อนจากตัวอย่างได้
และหากแอปเปิลสามารถนำงานวิจัยนี้มาประยุกต์ใช้กับการสร้าง AI ของตัวเองได้จริง ก็น่าจะเพิ่มขีดความสามารถของ AI ในตลาดที่กำลังแข่งขันกันอยู่ทุกวันนี้ได้น่าสนใจไม่น้อยครับ อย่างที่ Mark Gurman เคยรายงานไป
ว่าแอปเปิลกำลังหารือกับกูเกิลเพื่ออนุญาตให้ใช้โมเดลภาษาขนาดใหญ่อย่าง Gemini มาใช้บนไอโฟนได้มากขึ้น และเป็นส่วนหนึ่งที่อัปเดตมาพร้อมกับ iOS 18 ด้วย แต่จะจริงหรือไม่ต้องรอดูกันครับ
ที่มา – https://www.macrumors.com/2024/03/18/apple-mm1-ai-model-details/