- การอัปเกรด Siri แบบยกเครื่องครั้งใหญ่ เกิดความล่าช้าของกำหนดการจากปัญหาในการทดสอบภายใน
- ฟีเจอร์ที่เดิมมีกำหนดรวมอยู่ใน iOS 26.4 จะถูกทยอยปล่อยแยกไปใน iOS 26.5 และ iOS 27
- ฟีเจอร์การใช้ข้อมูลส่วนบุคคลและ การควบคุมด้วยเสียงบนพื้นฐาน App Intents มีความไม่เสถียรเป็นพิเศษ
- ยังพบปัญหาที่บางคำขอถูก สลับไปใช้การเชื่อมต่อกับ ChatGPT โดยอัตโนมัติ แทนเทคโนโลยีของ Apple
- Apple กำลังผลักดันการเปลี่ยนผ่าน AI ระยะยาวด้วยสถาปัตยกรรมใหม่ Linwood และโมเดลที่อิงกับ Google Gemini
กำหนดการอัปเกรด Siri สะดุด
- Siri แบบยกเครื่องครั้งใหญ่ ที่ประกาศในเดือนมิถุนายน 2024 พบปัญหาในการทดสอบภายในเมื่อไม่นานนี้
- แผนเดิมคือรวมไว้ใน iOS 26.4 ซึ่งมีกำหนดเปิดตัวในเดือนมีนาคม 2026
- ขณะนี้กำลังพิจารณาแนวทางกระจายบางฟีเจอร์ไปยัง iOS 26.5 (พฤษภาคม) และ iOS 27 (กันยายน)
- ระหว่างการทดสอบพบปัญหาการประมวลผลคำถามผิดพลาดและการตอบสนองล่าช้า
- มีรายงานว่าไม่สามารถจัดการบางคำขอได้อย่างถูกต้อง หรือใช้เวลาตอบนานเกินไป
ปัจจัยที่ทำให้ฟีเจอร์หลักล่าช้า
-
ฟีเจอร์ขยายการใช้ข้อมูลส่วนบุคคล
- มีแผนให้ Siri เข้าถึงข้อมูลส่วนบุคคล เช่น ข้อความเก่า เพื่อดำเนินการตามคำขอ
- ตัวอย่าง: ค้นหาพอดแคสต์ที่เพื่อนแชร์ไว้จากข้อความเก่า แล้วเปิดเล่นได้ทันที
- ในบิลด์ภายในของ iOS 26.5 มีสวิตช์ “preview” สำหรับฟีเจอร์ดังกล่าว
- กำลังพิจารณาวิธีแจ้งผู้ใช้ว่าการเปิดตัวช่วงแรกอาจยังไม่สมบูรณ์หรือไม่เสถียร
-
การควบคุมด้วยเสียงขั้นสูงของ App Intents
- กำลังพัฒนาฟีเจอร์ ควบคุมภายในแอปขั้นสูง ที่สามารถค้นหารูปภาพ แก้ไข และส่งให้รายชื่อติดต่อได้ด้วยคำสั่งเสียงครั้งเดียว
- ผลการทดสอบภายในยืนยันว่าฟีเจอร์นี้ยังทำงานได้ไม่เสถียรในทุกสถานการณ์
- มีรายงานบั๊กที่ Siri ขัดจังหวะการพูดของผู้ใช้เมื่อพูดเร็ว
- เมื่อต้องจัดการคำถามที่ซับซ้อน ยังพบปัญหาความแม่นยำและความล่าช้าในการประมวลผลเป็นเวลานาน
ปัญหาการพึ่งพาการเชื่อมต่อกับ ChatGPT
- มีกรณีที่ Siri ใหม่ สลับไปใช้ฟีเจอร์เชื่อมต่อ OpenAI ChatGPT ที่มีอยู่เดิมโดยอัตโนมัติ แทนเทคโนโลยีภายในของ Apple
- มีรายงานการใช้งานภายนอกแม้ในคำขอที่ควรประมวลผลได้ด้วยเทคโนโลยีของบริษัทเอง
การเปลี่ยนแปลงด้านสถาปัตยกรรมเทคโนโลยี
- Siri เวอร์ชันปรับโฉมถูกสร้างขึ้นบนสถาปัตยกรรมใหม่ทั้งหมดชื่อ Linwood
- ใช้แพลตฟอร์มโมเดลภาษาขนาดใหญ่ของ Apple คือ Apple Foundations Models
- และกำลังผสานเทคโนโลยีบางส่วนจากทีม Google Gemini ของ Alphabet เข้าไปด้วย
- ในเวอร์ชันทดสอบของ iOS 26.5 มีฟีเจอร์ที่ยังไม่เปิดเผย 2 รายการ
- เครื่องมือค้นหาเว็บ: ให้คำตอบสรุปข้อมูลจากเว็บในลักษณะคล้าย Perplexity หรือ Gemini
- ฟีเจอร์สร้างภาพ: ใช้เอนจินของ Image Playground แต่ยังมีปัญหาด้านความเสถียร
iOS 27 และ Siri รุ่นถัดไป (โค้ดเนม Campo)
- มีแผนนำ Siri แบบแชตบอตมาใช้ใน iOS 27, iPadOS 27 และ macOS 27
- ใช้เซิร์ฟเวอร์ของ Google และโมเดล Gemini แบบปรับแต่งขั้นสูง
- โครงการโค้ดเนม “Campo” มีเป้าหมายผสาน AI เข้ากับทั้งระบบปฏิบัติการ
- กำลังทดสอบแอป Siri แบบแยกอิสระ
- รวมฟีเจอร์จัดการบทสนทนาในอดีต
- มีแผนเสริมความสามารถในการควบคุมฟังก์ชันทั่วทั้ง OS และการค้นหาข้อมูลส่วนบุคคล เช่น ไฟล์
- วางแผนผสานเอนจิน Siri ใหม่เข้ากับแอปหลักอย่าง Mail, Calendar และ Safari
กลยุทธ์โครงสร้างพื้นฐาน AI และชิป
- CEO Tim Cook กล่าวในการประชุมภายในถึง การพัฒนาชิปดาต้าเซ็นเตอร์สำหรับ AI
- Apple กำลังสร้างโซลูชันดาต้าเซ็นเตอร์แบบปรับแต่งเองบนพื้นฐาน Apple silicon
- กำลังพัฒนาชิปคลาวด์ AI ประสิทธิภาพสูงภายใต้ชื่อโครงการ Baltra
กลยุทธ์ด้านความเป็นส่วนตัว
- หนึ่งในสาเหตุที่การพัฒนา AI แบบปรับให้เหมาะกับผู้ใช้ล่าช้า คือ นโยบายความเป็นส่วนตัวที่เข้มงวด
- Craig Federighi ย้ำถึงความแตกต่างจากแนวปฏิบัติมาตรฐานของอุตสาหกรรมที่บันทึกข้อมูลผู้ใช้ลงเซิร์ฟเวอร์และนำไปใช้ฝึกโมเดล
- พยายามประมวลผลบนอุปกรณ์ให้มากที่สุดเท่าที่จะทำได้ หรือใช้เซิร์ฟเวอร์ที่ปกป้องความเป็นส่วนตัว
- ใช้ข้อมูลที่มีลิขสิทธิ์และข้อมูลสังเคราะห์แทนข้อมูลจริงของผู้ใช้
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
Apple เข้าสู่ยุคสมาร์ตโฟนได้ถูกจังหวะอย่างสมบูรณ์แบบ แต่ในการเปลี่ยนผ่านเทคโนโลยีรอบถัดไปมีความเสี่ยงที่จะตามไม่ทัน โดยเฉพาะด้าน AI ที่ตอนนี้ตามหลังคู่แข่งไปไกลแล้ว
นั่นจึงเป็นเหตุผลที่ลงทุนใน Vision Pro และชิปของตัวเอง และด้วยกลยุทธ์นี้ Mac Mini กับ Mac Studio จึงกลายมาเป็นอุปกรณ์ที่เหมาะกับการ รันโมเดล AI แบบโลคัล อย่างมาก
ความผิดพลาดของ Cook อยู่ที่ฝั่งการตลาด และส่วนนั้นก็เป็นความรับผิดชอบของ CEO
แทนที่ Apple จะเร่งเรื่อง AI การหา วิสัยทัศน์ที่สอดคล้อง กับระบบนิเวศของตัวเองน่าจะฉลาดกว่า
Apple เคยถูกมองว่า ‘ตามหลัง’ ในหลายกระแสทั้งเว็บ, การค้นหา, โซเชียล, เมตาเวิร์ส แต่สุดท้ายก็ ประสบความสำเร็จอย่างต่อเนื่อง
Apple พยายามไม่แลกข้อมูลลูกค้าเหมือนบริษัทอื่น และเพราะแบบนั้นในระยะยาวพวกเขาจะได้รับความเชื่อถือ
ถ้าดูกรณีล้มเหลวของฟีเจอร์ AI ใน Google Pixel 10 แนวทางที่ช้ากว่าของ Apple กลับดูฉลาดกว่า
บทความที่เกี่ยวข้อง: Android Authority, Ars Technica
สุดท้าย Siri ก็มีประโยชน์แค่เป็น ปุ่มสั่งงานด้วยเสียงสำหรับตั้งเวลา เท่านั้น
Siri เป็นเพียง ฟีเจอร์เช็กบ็อกซ์ สำหรับนักลงทุน และ AI ที่จำเป็นจริงๆ อาจมาในรูปแบบอื่น
ถ้า Apple เปลี่ยน Siri ให้เป็นบริการแบบ ChatGPT ก็มีโอกาสสูงว่าจะทำเพื่อ ดึงให้คนสมัคร iCloud
ถึงอย่างนั้น การควบคุมด้วยเสียงที่มี HomePod เป็นศูนย์กลางก็ยังมีประโยชน์มาก
ก่อนยุค LLM มันเป็นไปไม่ได้ แต่ตอนนี้เราอยู่ในยุคที่เข้าใจบริบทได้แล้ว
ถ้ามันฉลาดขึ้นกว่านี้ได้ก็คงดีมาก
ที่น่าประหลาดคือ Google Home ก็ยังแย่มากเช่นกัน เปลี่ยนไปใช้ Gemini แล้วแต่กลับยิ่งเยิ่นเย้อและ ตอบคำถามพื้นฐานไม่ได้ด้วยซ้ำ
พยายามสร้างซอฟต์แวร์เวอร์ชันที่รวมเป็นหนึ่ง แต่สุดท้ายก็ต้องยอมเลิกซัพพอร์ตอุปกรณ์รุ่นเก่า และนั่นทำให้ประสบการณ์ผู้ใช้เละเทะ
ตอนขับรถฉันถามว่า “ร้านนี้มีมื้อกลางวันไหม?” มันกลับตอบแค่ว่า “เจอผลการค้นหาบนเว็บแล้ว”
ทั้งที่มีทั้งตำแหน่งที่ตั้ง, แผนที่, ข้อมูลเมนู, และฟีเจอร์สรุปด้วย LLM แต่กลับ ไม่ใช้บริบทเลย
Siri ให้ความรู้สึกเหมือนจงใจไม่ทำสิ่งที่มันทำได้
ดูเหมือน QA จะทำงานได้ไม่ดี หรือไม่ก็ องค์กรไม่มีประสิทธิภาพ
แต่การยึดติดกับ การประมวลผลบนอุปกรณ์ ก็ทำให้มีข้อจำกัด ขณะที่ผู้ใช้ส่วนใหญ่กลับไม่ได้กังวลเรื่องส่งข้อมูลส่วนตัวขึ้นคลาวด์
นั่นจึงทำให้ Siri ดูตามหลังเมื่อเทียบกัน