คูเมืองโดยบังเอิญของ Apple: ทำไม ‘ผู้แพ้ AI’ อาจกลายเป็นผู้ชนะได้
(adlrocha.substack.com)- เมื่อ ความฉลาดของ AI กลายเป็นสินค้าโภคภัณฑ์ เร็วขึ้น ทุกบริษัทต่างกระโจนเข้าสู่การแข่งขันสร้างโมเดลที่ดีที่สุด แต่ Apple ซึ่งกักตุนเงินสดมหาศาลกลับอยู่ในตำแหน่งที่ได้เปรียบ
- แม้ OpenAI จะมี มูลค่า $300B แต่ความเสี่ยงของการลงทุนโครงสร้างพื้นฐานโดยไม่มีโมเดลรายได้ก็เริ่มเกิดขึ้นจริง ทั้งการยุติบริการ Sora และการยกเลิก Stargate Texas
- ด้วย อุปกรณ์ที่ใช้งานอยู่ 2.5 พันล้านเครื่องและสถาปัตยกรรมประมวลผลบนอุปกรณ์ Apple จึงมีคูเมืองจาก ข้อมูลบริบทส่วนบุคคลและการออกแบบที่เน้นความเป็นส่วนตัว
- โมเดลโอเพนเวต Gemma 4 แสดงประสิทธิภาพระดับเดียวกับ Claude Sonnet 4.5 Thinking และช่องว่างของโมเดลก็หดแคบลงอย่างรวดเร็วจนถึงขั้นรันบนโน้ตบุ๊กได้
- สถาปัตยกรรมหน่วยความจำรวมของ Apple Silicon ทำให้สามารถรันโมเดลขนาดใหญ่แบบโลคัลได้ และ เฟรมเวิร์ก MLX ก็วางฐานสำหรับการขยายระบบนิเวศ
- ไม่ว่าจะเป็นกลยุทธ์หรือความบังเอิญ ตอนนี้ Apple ได้เปรียบในการแข่งขันแบบใหม่บนพื้นฐาน ฮาร์ดแวร์และซอฟต์แวร์ที่เหมาะกับยุค AI
‘คูเมืองโดยบังเอิญ’ ของ Apple ที่ “แพ้” ในการแข่งขัน AI
- ภายใต้แนวโน้มที่ ความฉลาดกำลังกลายเป็นสินค้าโภคภัณฑ์ ยิ่งบริษัทสร้างโมเดลที่ดีขึ้นมากเท่าไร โมเดลของคู่แข่งก็ยิ่งไล่ตามได้เร็วขึ้นเท่านั้น
- การลงทุนเทรนขนาดใหญ่ทำให้ต้นทุนของโมเดลรุ่นก่อนลดลง และ ช่องว่างระหว่างฟรอนเทียร์โมเดลกับโอเพนซอร์สโมเดลก็แคบลงอย่างรวดเร็ว
- โอเพนโมเดลรุ่นใหม่อย่าง Gemma 4, Kimi K2.5, GLM 5.1 ไปถึงระดับที่ทำงานบนฮาร์ดแวร์ส่วนบุคคลได้ดีเพียงพอแล้ว
- ในทางกลับกัน OpenAI และรายอื่น ๆ กลับถูกตั้งคำถามเรื่องความยั่งยืนจากโครงสร้างต้นทุนมหาศาลและโมเดลรายได้ที่ไม่มั่นคง
- การเปลี่ยนแปลงนี้ กลับเป็นผลดีต่อ Apple ที่เคยถูกเรียกว่า “ผู้แพ้ AI”
- Apple มี Siri ก่อนใคร แต่หลังการมาของ ChatGPT กลับไม่มีทั้ง ฟรอนเทียร์โมเดลเรือธง และไม่มีคำมั่นลงทุนคอมพิวต์ระดับ $500B จึงถูกจัดอยู่ฝั่ง “ผู้แพ้ AI”
- ขณะที่แล็บ AI และบิ๊กเทคอื่น ๆ เผาเงินมหาศาลเพื่อแย่ง อันดับ 1 บนเบนช์มาร์กล่าสุด Apple กลับสะสมเงินสดที่ยังไม่ได้ใช้ และยัง ขยายการซื้อหุ้นคืน เพื่อเปิดทางเลือกให้ตัวเองมากขึ้น
การใช้จ่ายเกินตัวและความเสี่ยงของ OpenAI
- OpenAI ระดมทุนที่ มูลค่า $300B แล้วเดินหน้ารันบริการวิดีโอ Sora ด้วยต้นทุนรายวันราว $15M เทียบกับรายได้ $2.1M ก่อนจะต้องยุติบริการในที่สุด
- Disney เคยทำ สัญญาไลเซนส์ 3 ปี กับ Sora เพื่อสร้างคอนเทนต์ตัวละครจาก Marvel, Pixar และ Star Wars และกำลังผลักดัน การลงทุนถือหุ้น $1B ใน OpenAI แต่เมื่อ Sora ถูกยุติ การลงทุน $1B นี้ก็ล่มไปด้วย
- ในด้านอินฟราสตรักเจอร์ OpenAI ได้ลงนามหนังสือแสดงเจตจำนงแบบไม่ผูกพันกับ Samsung และ SK Hynix สำหรับ DRAM wafer สูงสุด 900,000 แผ่นต่อเดือน (ราว 40% ของกำลังการผลิตโลก)
- Micron เห็นสัญญาณดีมานด์นี้แล้วจึง ปิดแบรนด์หน่วยความจำผู้บริโภค Crucial ที่มีอายุ 29 ปี เพื่อหันไปโฟกัสลูกค้า AI แต่เมื่อ Stargate Texas ถูกยกเลิก ดีมานด์ก็หายไป และราคาหุ้น Micron ก็ร่วงหนัก
- ไม่ว่าคะแนนเบนช์มาร์กหรือขนาดอินฟราสตรักเจอร์จะใหญ่แค่ไหน โครงสร้างแบบนี้ก็ยังเสี่ยงหลุดเกมได้จาก ความคลาดเคลื่อนเพียงเล็กน้อยของรายได้ที่คาดไว้
จากความฉลาดสู่ความสามารถใช้งานจริง
- สมมติฐานหลักของแล็บ AI คือ ความสามารถดิบของโมเดล (ความฉลาด) และอินฟราสตรักเจอร์ที่ใช้รันมันจะยังเป็นทรัพยากรหายาก แต่ตอนนี้โมเดลที่ด้อยพลังกว่ากำลังเติบโตเร็วจนแตะระดับของฟรอนเทียร์โมเดลรุ่นก่อน
- โมเดลโอเพนเวต Gemma 4 ของ Google รันบนโทรศัพท์ได้ ทำ 85.2% บน MMLU Pro และอยู่ระดับเดียวกับ Claude Sonnet 4.5 Thinking บน Arena leaderboard
- ทำยอด ดาวน์โหลด 2 ล้านครั้ง ในสัปดาห์แรก
- โมเดลที่เคยเป็น SOTA เมื่อ 18 เดือนก่อน ตอนนี้รันบนโน้ตบุ๊กได้แล้ว และยังดีขึ้นทุกไตรมาส
- จากการรัน Gemma 4 โดยตรงบน AMD Ryzen AI Max+ พบว่าทั้งความเร็วโทเคนต่อวินาทีและระดับความฉลาดดีมากพอ จนสามารถ ย้ายแบ็กเอนด์ของเครื่องมือส่วนตัวมาที่โมเดลนี้ได้โดยคุณภาพเอาต์พุตไม่ลดลง
- Anthropic มองเห็นแนวโน้มนี้และเร่งออกเครื่องมือใช้งานจริงอย่าง Claude Code, Claude Cowork, Claude Managed Sessions เพื่อ ล็อกอิน ผู้ใช้ไว้ในระบบนิเวศของตัวเอง
- ตรรกะสำคัญคือ หากตัวโมเดลเองไม่สามารถเป็นคูเมืองได้ ก็ต้อง ยึดเลเยอร์การใช้งาน และทำให้ต้นทุนการย้ายออกสูงขึ้น
- ตามการวิเคราะห์หนึ่ง ผู้สมัคร Max plan ($200) มีการใช้คอมพิวต์มูลค่าเทียบเท่า $27,000 ซึ่งสะท้อนว่าแล็บต่าง ๆ กำลังอุดหนุนดีมานด์ไว้ด้วยเงินตัวเอง
- Apple แทบไม่ต้องใช้เงินกับโครงสร้างพื้นฐาน AI หรือการอุดหนุนการใช้โทเคนของผู้ใช้ จึงมี ทางเลือกและอำนาจต่อรองมากกว่า บริษัทอื่น
บริบทคือทรัพยากรหลัก
- เมื่อความฉลาดมีอยู่มากขึ้น บริบทจะกลายเป็นทรัพยากรหายาก
- โมเดลที่อนุมานได้ทุกอย่างแต่ไม่รู้อะไรเกี่ยวกับผู้ใช้เลย ก็เป็นได้แค่เครื่องมือทั่วไป
- หาก AI จะมีประโยชน์จริงในชีวิตประจำวัน ก็ต้องมีทั้งความสามารถในการให้เหตุผล + บริบทส่วนบุคคล (ข้อความ ปฏิทิน โค้ด ข้อมูลสุขภาพ รูปภาพ นิสัย ฯลฯ)
- Apple มีบริบทนี้อยู่แล้วผ่าน อุปกรณ์ที่ใช้งานอยู่ 2.5 พันล้านเครื่อง
- ข้อมูลสุขภาพจาก Apple Watch, รูปภาพบน iPhone, โน้ต, ข้อความ, ประวัติตำแหน่ง, พฤติกรรมในแอป, อีเมล และการรับรู้สภาพแวดล้อมผ่านเซนเซอร์ของอุปกรณ์
- ด้วย การประมวลผลบนอุปกรณ์ จึงเป็นไปได้ที่จะให้โมเดลเข้าถึงบริบททั้งหมดโดยไม่ต้องส่งข้อมูลออกไปนอกเครื่อง
- ตำแหน่งทางการตลาดแบบ "Privacy. That's iPhone" จึงอาจเปลี่ยนจากแค่ PR ไปเป็น คุณค่าหลักของข้อเสนอสินค้า
- การส่งเวชระเบียนกับรูปถ่ายตลอด 15 ปีให้ OpenAI กับการอนุญาตให้โมเดลที่ทำงานเฉพาะในอุปกรณ์เข้าถึงข้อมูลนั้น เป็นคนละเรื่องกันโดยพื้นฐาน
- ดีล Gemini ($1B) ที่ Apple ทำกับ Google มีไว้สำหรับคำถามที่ต้องใช้การอนุมานระดับคลาวด์ ซึ่งมีต้นทุนเพียงระดับปัดเศษเมื่อเทียบกับค่าใช้คอมพิวต์รายสัปดาห์ของ OpenAI
- สิ่งที่ Apple เก็บไว้ภายในคือ เลเยอร์บริบท, สแต็ก on-device และระบบปฏิบัติการที่ทำหน้าที่ไกล่เกลี่ยทุกอย่าง
ทำไม Apple Silicon จึงเหมาะกับ AI
- อย่างที่กระแส Mac Mini หลัง OpenClaw เปิดตัว แสดงให้เห็น Apple Silicon ไม่ได้ถูกสร้างมาเพื่อ AI แต่เพื่อประสิทธิภาพ แบตเตอรี่ ความร้อน และการออกแบบฮาร์ดแวร์/ซอฟต์แวร์แบบบูรณาการ ทว่ากลับพิสูจน์แล้วว่าเป็น สถาปัตยกรรมที่เหมาะอย่างยิ่งสำหรับการรันโมเดลแบบโลคัล
- หัวใจของการออกแบบคือ Unified Memory
- สถาปัตยกรรมดั้งเดิมใช้ CPU และ GPU เป็นคนละชิปและคนละพูลหน่วยความจำ ทำให้การย้ายข้อมูลช้าและกินพลังงานมาก
- Nvidia GPU แม้จะเร็วในการคำนวณเมทริกซ์ แต่การส่งข้อมูลระหว่าง CPU-GPU ผ่าน PCIe bus กลายเป็นคอขวด
- ส่วนชิปตระกูล M/A ของ Apple วาง CPU, GPU และ Neural Engine ไว้บนไดเดียวกัน พร้อม แชร์พูลหน่วยความจำแบนด์วิดท์สูงชุดเดียว จึงไม่มีโอเวอร์เฮดจากการข้ามบัส การถ่ายโอนข้อมูล และเลเทนซี
- การอนุมานของ LLM ตอนนี้ติดคอขวดที่แบนด์วิดท์หน่วยความจำ ไม่ใช่คอมพิวต์
- หัวใจคือความเร็วในการสตรีมน้ำหนักโมเดลจากหน่วยความจำไปยังยูนิตคำนวณ และขนาดหน่วยความจำสำหรับเก็บ KV cache
- พูลหน่วยความจำรวมของ Apple เปิดให้ทุกยูนิตคำนวณเข้าถึงแบบตรงด้วย แบนด์วิดท์สูง พร้อมกันได้
- เทคนิค LLM in a Flash มีประสิทธิภาพเป็นพิเศษบนฮาร์ดแวร์ของ Apple
- มีกรณีรัน Qwen 397B (โมเดลขนาด 209GB) บน M3 Max Mac ด้วย RAM ที่ใช้งานจริงเพียง 5.5GB ที่ความเร็ว ~5.7 โทเคน/วินาที
- น้ำหนักโมเดลถูกเก็บบน SSD และสตรีมที่ ~17.5 GB/s โดยอาศัยสถาปัตยกรรม MoE (Mixture-of-Experts) ที่ทำให้แต่ละโทเคนเปิดใช้เพียงบาง expert layer
- และสำหรับการรันนี้ Claude เป็นผู้เขียน Objective-C และ Metal shader ราว 5,000 บรรทัด
พลวัตของแพลตฟอร์มและความคล้ายกับ App Store
- เช่นเดียวกับ App Store ที่ Apple ไม่ได้เป็นคนสร้างแอป แต่สร้าง แพลตฟอร์มที่แอปรันได้ดีที่สุด แล้วระบบนิเวศจึงค่อยตามมา
- นักพัฒนาเลือก iOS ไม่ใช่เพราะ Apple ขอ แต่เพราะฐานผู้ใช้ เครื่องมือ และฮาร์ดแวร์ที่สอดคล้องกัน
- มีความเป็นไปได้ว่าสิ่งเดียวกันจะเกิดกับการอนุมานแบบโลคัล
- MLX กำลังก้าวขึ้นเป็นเฟรมเวิร์กมาตรฐานโดยพฤตินัยของ on-device AI
- สถาปัตยกรรมโมเดลหลักอย่าง Gemma, Qwen, Mistral ต่างรองรับ MLX
- แม้ Apple จะไม่ชนะการแข่งขันเรื่องโมเดล ก็ยังอาจกลายเป็น แพลตฟอร์มโดยพฤตินัยที่โมเดล (หรือเอเจนต์) ใช้รัน
- กระแส Mac Mini หลัง OpenClaw กลายเป็นไวรัล ก็เป็นตัวอย่างที่สะท้อนความเป็นไปได้นี้
เป็นกลยุทธ์หรือโชค
- กลยุทธ์การออกแบบฮาร์ดแวร์/ซอฟต์แวร์แบบบูรณาการของ Apple เป็นจุดโฟกัสหลักมาหลายปี ไม่ว่าจะเป็นการวางตำแหน่งด้านความเป็นส่วนตัว การเน้น on-device processing หรือการ ตัดสินใจพัฒนาซิลิคอนเอง ในช่วงที่ทั้งอุตสาหกรรมพึ่งพา Nvidia และ Intel ซึ่งล้วนเป็นตัวเลือกที่เสี่ยงในเชิงธุรกิจ
- การตัดสินใจเหล่านี้ไม่ได้ทำเพื่อ AI แต่เพื่อเรื่องต้นทุนและธรรมาภิบาล และสุดท้ายกลับส่งผลดีในยุค AI
- สิ่งที่ Apple อาจไม่ได้คาดการณ์ไว้คือ
- สถาปัตยกรรม unified memory จะเหมาะกับ LLM อย่างสมบูรณ์แบบ
- โมเดลโอเพนเวตจะพัฒนาเร็วขนาดนี้
- การสตรีมโมเดลระดับ 400B พารามิเตอร์จาก SSD จะใช้งานได้จริง
- บางส่วนอาจเป็นโชค แต่ก็เป็น โชคแบบที่มักเกิดกับบริษัทที่สร้างรากฐานถูกต้อง
- ขณะที่อุตสาหกรรมที่เหลือทุ่ม 3 ปีไปกับการแข่งขันสร้างโมเดลที่ดีที่สุด Apple กลับ ยืนดูอยู่ข้างสนามว่าดีไวซ์และระบบนิเวศของตนจะเข้ากับอนาคตนี้อย่างไร
- แม้ยังมีส่วนที่ไม่สมบูรณ์ เช่นข้อจำกัดของ Siri แต่
- อุปกรณ์ 2.5 พันล้านเครื่อง, บริบทส่วนบุคคลครบถ้วน, การรันโมเดลแบบโลคัลบนซิลิคอนเฉพาะทาง, และการเรียกใช้ Gemini สำหรับคำถามยาก
- โครงสร้างการอนุมานแบบ ต้นทุนผันแปรแทน CAPEX คงที่ ก็ยากจะมองว่าเป็นตำแหน่งที่เสียเปรียบในยุคที่ AI กลายเป็นเรื่องทั่วไป
- สรุปแล้ว Apple ยังมีแนวโน้มจะครองบทบาทสำคัญแม้ในอนาคตที่ AI เป็นศูนย์กลาง
- จะเป็นกลยุทธ์หรือความบังเอิญก็ตาม ประเด็นสำคัญคือ Apple กำลังยืนอยู่บนรากฐานที่ถูกต้อง
5 ความคิดเห็น
พูดตรง ๆ คือมันค่อนข้างไร้สาระ
ตอนนี้บริษัททำโมเดล AI กำลังแข่งกันแบบยอมขาดทุนกันอยู่
ก็เลยกลายเป็นว่ามาพูดกันว่า Apple ที่ไม่ได้ทำอะไรเลยกลับได้ประโยชน์เต็ม ๆ ไม่ใช่เหรอ
นั่นก็เพราะตอนนี้มันเป็นกระแสการแข่งขันของโมเดล LLM ที่รุนแรงเกินไปเลยดูเป็นแบบนั้น
ถ้าโมเดล AI อยู่ในช่วงที่เริ่มนิ่งและเติบโต Meta จะบ้าจนปล่อย Gemma ออกมาจริง ๆ เหรอ
ท้ายที่สุดแล้ว ความชำนาญที่สั่งสมมาจากการพัฒนาและดูแลโมเดลมาตลอดต่างหากที่จะกลายเป็นทองและเพชร
Meta -> Google
ดูจากการใช้จ่ายของ Apple แล้วก็ไม่ได้อยู่นิ่ง ๆ นะครับ เป็นบริษัทที่เหมาะกับการบรรลุ physical AI อยู่เหมือนกัน.. สุดท้าย Nvidia เองก็ไปทาง physical เหมือนกัน.. Google ที่มีครบทุกอย่างนี่แหละสุดยอด
ผมคิดว่าประเด็นน่าจะไม่ใช่แค่นั้น แต่เป็นเรื่องที่ท้ายที่สุดแล้วข้อมูลเพื่อการปรับแต่งเฉพาะบุคคลจะกลายเป็นคูเมืองทางการแข่งขันที่สำคัญในยุค AI ถัดไป และ Apple ก็มีสิ่งนั้นอยู่แล้ว จึงน่าจะอยู่ในตำแหน่งที่ได้เปรียบ
Apple เอ๋ย MLX สู้ๆ
ความคิดเห็นจาก Hacker News
ผมคิดว่า Gemma4 ทำได้ดีในเรื่องการช่วยเขียนโค้ดหรือเสนอแนะแนวทางแก้ error แต่ยังขาดในด้าน การใช้เครื่องมือ ที่ซับซ้อนหรือความเข้าใจบริบทระดับผู้เชี่ยวชาญ
ถ้ามันถูกปรับปรุงอีกสักไม่กี่รอบจนเป็นประมาณ Gemma6 แล้วรันแบบโลคัลบน Mac ได้เต็มรูปแบบในระดับเดียวกับ Opus ตอนนี้ ก็คงแทบไม่มีเหตุผลต้องใช้โมเดลบนคลาวด์แล้ว
เมื่อกี้เพิ่งเห็นข่าวว่า Ollama 0.20.6 ปรับปรุง ความสามารถในการเรียกใช้เครื่องมือ ของ Gemma4 แล้ว ไว้กินข้าวเช้าเสร็จจะลองทดสอบใหม่
ผู้ให้บริการหลายเจ้าก็เปิดให้ใช้โมเดลเดียวกันและแข่งกันทั้ง ราคาและประสิทธิภาพ ทำให้ความเสี่ยงเรื่องการผูกขาดลดลง
ในเครื่องผมมี Gemma อยู่แล้ว เลยคุยเรื่องส่วนตัวหรืองานที่ไม่ใช่โปรแกรมมิงแบบออฟไลน์ล้วนได้
ในสถานการณ์แบบนี้ ถ้าเป็น OpenAI หรือ Anthropic ก็อาจใช้ ลูกเล่นไม่ค่อยมีจริยธรรม สารพัดเพื่อ lock-in ลูกค้า แต่สุดท้ายก็คงไม่เวิร์ก
ผมมองว่ามูลค่ากิจการของ OpenAI ตั้งต้นจากสมมติฐานที่ว่า AI จะทำงานแบบเดียวกับ search
แต่ search เป็นโครงสร้างที่ยิ่งผู้ใช้ยิง query มากเท่าไร ตัวผลิตภัณฑ์ก็ยิ่งดีขึ้น และ Google ก็เป็น ผลิตภัณฑ์ที่ดีที่สุดจริง ๆ อยู่ได้นานมาก
ตรงกันข้าม AI แยกส่วนระหว่างการฝึกกับการอนุมาน และหลังจากความแตกแยกภายในของ OpenAI คู่แข่งก็ไล่ตามได้เร็วมาก
ตอนนี้มันกลายเป็น สงครามเผาทุน ที่ต้องทุ่มเงินระดับหลายพันล้านดอลลาร์ถึงจะแข่งได้ และยิ่งช่องว่างระหว่างโมเดลแคบลงเท่าไร พลังการกระจายสินค้า ก็ยิ่งเป็นตัวตัดสิน
Google, Meta, MSFT, Amazon ทำได้ แต่ OpenAI เงินทุนไม่พอ
มีความคาดหวังสูงว่ามันจะครอบคลุมทั้งระบบอัตโนมัติในองค์กรและแม้แต่แทนที่โซเชียลมีเดียได้ และยังมีมูลค่าอนาคตที่ไม่แน่นอนจาก ความเป็นไปได้ของ AGI เพิ่มเข้าไปอีก
บทบาทของ Sam Altman คือการขยายความคาดหวังพวกนี้ให้ใหญ่ขึ้นเพื่อ ดันมูลค่าการลงทุนให้สูงสุด
การที่ Apple จับมือกับ Google ก็ดูเป็นภาพเดียวกัน
Apple ใช้ กลยุทธ์รอแล้วค่อยกระโดด แบบนี้มาตลอด
ระหว่างที่บริษัทอื่นลองผิดลองถูก ก็ใช้เวลาทำความเข้าใจข้อจำกัดของเทคโนโลยี แล้วค่อยออกผลิตภัณฑ์ที่สมบูรณ์จนพาตลาดไปต่อได้
อีกไม่กี่ปีก็มีโอกาสสูงที่จะออกผลิตภัณฑ์ที่สมบูรณ์จริง ๆ
ถึงอย่างนั้นผมก็ยังใช้ iPhone เพราะ ไม่อยากฝากข้อมูลส่วนตัวไว้กับ Google
Apple ไม่ใช่บริษัทที่เน้น โชว์แชตบอตให้นักลงทุนดู แต่เป็นบริษัทที่เน้น ฮาร์ดแวร์สำหรับผู้บริโภค
แกนหลักคือ iPhone กับแว่น AR ในอนาคต และ แมชชีนเลิร์นนิงบนอุปกรณ์ ที่จำเป็นต่อสิ่งนั้นก็คือเหตุผลที่พวกเขาออกแบบชิปเอง
พวกเขาไม่มีเหตุผลต้องสร้างผลิตภัณฑ์แข่งกับ OpenAI
ตอนที่บริษัทอื่นเลิกสนใจ VR แล้วหันไป AI กันหมด ผมไม่เข้าใจเลยว่าทำไม Apple ถึงออก เฮดเซ็ต VR มาแทน
ทั้งราคาแพง นักพัฒนาน้อย และยังเข้าตลาด AI ช้าด้วย
ถ้าแว่น AR ทำได้สำเร็จจริง มันจะกลายเป็น แพลตฟอร์มขนาดมหาศาล และดูเหมือน Apple กำลังรอจังหวะเปิดตัวหลังจาก Meta ล้มเหลว
สิ่งที่ดีที่สุดคือทุกอย่าง รันในเครื่อง ข้อมูลไม่หลุดออกไปข้างนอก
ผมคิดว่าพวกครีเอเตอร์ก็น่าจะเปิดรับ Apple AI มากกว่า เพราะมันใช้ ข้อมูลฝึกที่มีจริยธรรม และให้ความรู้สึกเหมือนเป็นของที่เราครอบครองเอง ไม่ต้องจ่ายค่าสมาชิก
ผมปิด Siri มาตั้งแต่ Sequoia แล้ว และชอบที่ Apple ไม่ได้ บังคับ ให้เปิดมันกลับมา
ตรงกันข้าม JIRA กับ Slack เด้งฟีเจอร์ AI ใหม่ขึ้นมาทุกครั้งจนรำคาญ
แม้แต่ Apple เอง การเอา โฆษณาสปอนเซอร์ ขึ้นบนสุดใน App Store ก็ให้ความรู้สึกว่าเกินเส้นไปแล้ว
บน Android ยังมีทางเลือกอย่าง F-Droid แต่บน iOS เลี่ยงได้ยาก
Amazon, Uber, Google Workspace ก็ยัด AI คล้าย ๆ กัน
ทั้งที่ผมต้องการแค่แพตช์ของ Sequoia แต่ Tahoe ถูกเลือกเป็นค่าเริ่มต้นตลอด
แม้แต่การรวม Claude Code ใน Xcode ก็ยังมีแค่บน Tahoe ด้วย ซึ่งไร้เหตุผล
การออก MacBook Neo ในจังหวะนี้ถือว่าเป็นกลยุทธ์ที่ยอดเยี่ยม
ระหว่างที่เฝ้าดูสงคราม AI มันช่วยล็อกผู้ใช้รุ่นถัดไปไว้ใน ecosystem ของ Apple ได้
Neo ให้ความรู้สึกเหมือน iPod ของคนรุ่นนี้
Nvidia จำกัดไม่ให้เอา GPU สำหรับเกมเมอร์ไปใช้ในดาต้าเซ็นเตอร์
ถ้า Apple กลายเป็นภัยคุกคามต่อ ตลาด AI แบบโลคัล พวกเขาอาจออก การ์ด AI สำหรับผู้บริโภค แยกต่างหากก็ได้
อนาคตอาจเป็นการขายชิปตัวเดียวกันแบบ ตั้งราคาตามการใช้งาน
ถ้าประสิทธิภาพ NPU แซง Intel·AMD ได้ และรวม GPU ระดับ RTX 5070 ลงในฟอร์มแฟกเตอร์บางได้จริง โครงสร้างของโน้ตบุ๊กเกมมิงอาจเปลี่ยนไปทั้งระบบ
รุ่นผู้บริโภคราคาถูกกว่า แต่หน่วยความจำน้อยและช้ากว่า
Apple ไม่ได้ลงไปแข่งในสนาม LLM จุดแข็งของพวกเขาคือ การออกแบบที่ยึดมนุษย์เป็นศูนย์กลาง
iPod ก็ไม่ใช่ MP3 player ตัวแรก และ iPhone ก็ไม่มี 3G แต่ก็ยังประสบความสำเร็จ
Apple โฟกัสกับ ประสิทธิภาพพลังงานและสถาปัตยกรรม unified memory มาตลอด ซึ่งเป็นการออกแบบโดยมองไปถึงผลิตภัณฑ์อนาคตอย่างแว่น AR
สิ่งที่ NVidia หรือ Intel ทำคนเดียวไม่ได้ Apple เตรียมพร้อมมานานผ่าน การออกแบบรวมทั้งชิป หน่วยความจำ และ SSD
เหมือนตอนที่พวกเขานำ 64-bit ARM มาใช้ ในตอนนี้คนจำนวนมากก็ยังประเมินความหมายของมันต่ำเกินไป
GPU ของ NVidia แรงกว่าก็จริงประมาณ 2~3 เท่า แต่กินไฟมากกว่า 10 เท่า
Apple แข่งด้วย ประสิทธิภาพต่อราคา และเหมาะมากกับงาน LLM แบบโลคัลที่เน้นความทันที ความเป็นส่วนตัว และการใช้งานเฉพาะบุคคล