8 คะแนน โดย GN⁺ 16 일 전 | 5 ความคิดเห็น | แชร์ทาง WhatsApp
  • เมื่อ ความฉลาดของ AI กลายเป็นสินค้าโภคภัณฑ์ เร็วขึ้น ทุกบริษัทต่างกระโจนเข้าสู่การแข่งขันสร้างโมเดลที่ดีที่สุด แต่ Apple ซึ่งกักตุนเงินสดมหาศาลกลับอยู่ในตำแหน่งที่ได้เปรียบ
  • แม้ OpenAI จะมี มูลค่า $300B แต่ความเสี่ยงของการลงทุนโครงสร้างพื้นฐานโดยไม่มีโมเดลรายได้ก็เริ่มเกิดขึ้นจริง ทั้งการยุติบริการ Sora และการยกเลิก Stargate Texas
  • ด้วย อุปกรณ์ที่ใช้งานอยู่ 2.5 พันล้านเครื่องและสถาปัตยกรรมประมวลผลบนอุปกรณ์ Apple จึงมีคูเมืองจาก ข้อมูลบริบทส่วนบุคคลและการออกแบบที่เน้นความเป็นส่วนตัว
  • โมเดลโอเพนเวต Gemma 4 แสดงประสิทธิภาพระดับเดียวกับ Claude Sonnet 4.5 Thinking และช่องว่างของโมเดลก็หดแคบลงอย่างรวดเร็วจนถึงขั้นรันบนโน้ตบุ๊กได้
  • สถาปัตยกรรมหน่วยความจำรวมของ Apple Silicon ทำให้สามารถรันโมเดลขนาดใหญ่แบบโลคัลได้ และ เฟรมเวิร์ก MLX ก็วางฐานสำหรับการขยายระบบนิเวศ
  • ไม่ว่าจะเป็นกลยุทธ์หรือความบังเอิญ ตอนนี้ Apple ได้เปรียบในการแข่งขันแบบใหม่บนพื้นฐาน ฮาร์ดแวร์และซอฟต์แวร์ที่เหมาะกับยุค AI

‘คูเมืองโดยบังเอิญ’ ของ Apple ที่ “แพ้” ในการแข่งขัน AI

  • ภายใต้แนวโน้มที่ ความฉลาดกำลังกลายเป็นสินค้าโภคภัณฑ์ ยิ่งบริษัทสร้างโมเดลที่ดีขึ้นมากเท่าไร โมเดลของคู่แข่งก็ยิ่งไล่ตามได้เร็วขึ้นเท่านั้น
    • การลงทุนเทรนขนาดใหญ่ทำให้ต้นทุนของโมเดลรุ่นก่อนลดลง และ ช่องว่างระหว่างฟรอนเทียร์โมเดลกับโอเพนซอร์สโมเดลก็แคบลงอย่างรวดเร็ว
    • โอเพนโมเดลรุ่นใหม่อย่าง Gemma 4, Kimi K2.5, GLM 5.1 ไปถึงระดับที่ทำงานบนฮาร์ดแวร์ส่วนบุคคลได้ดีเพียงพอแล้ว
    • ในทางกลับกัน OpenAI และรายอื่น ๆ กลับถูกตั้งคำถามเรื่องความยั่งยืนจากโครงสร้างต้นทุนมหาศาลและโมเดลรายได้ที่ไม่มั่นคง
  • การเปลี่ยนแปลงนี้ กลับเป็นผลดีต่อ Apple ที่เคยถูกเรียกว่า “ผู้แพ้ AI”
    • Apple มี Siri ก่อนใคร แต่หลังการมาของ ChatGPT กลับไม่มีทั้ง ฟรอนเทียร์โมเดลเรือธง และไม่มีคำมั่นลงทุนคอมพิวต์ระดับ $500B จึงถูกจัดอยู่ฝั่ง “ผู้แพ้ AI”
    • ขณะที่แล็บ AI และบิ๊กเทคอื่น ๆ เผาเงินมหาศาลเพื่อแย่ง อันดับ 1 บนเบนช์มาร์กล่าสุด Apple กลับสะสมเงินสดที่ยังไม่ได้ใช้ และยัง ขยายการซื้อหุ้นคืน เพื่อเปิดทางเลือกให้ตัวเองมากขึ้น

การใช้จ่ายเกินตัวและความเสี่ยงของ OpenAI

  • OpenAI ระดมทุนที่ มูลค่า $300B แล้วเดินหน้ารันบริการวิดีโอ Sora ด้วยต้นทุนรายวันราว $15M เทียบกับรายได้ $2.1M ก่อนจะต้องยุติบริการในที่สุด
  • Disney เคยทำ สัญญาไลเซนส์ 3 ปี กับ Sora เพื่อสร้างคอนเทนต์ตัวละครจาก Marvel, Pixar และ Star Wars และกำลังผลักดัน การลงทุนถือหุ้น $1B ใน OpenAI แต่เมื่อ Sora ถูกยุติ การลงทุน $1B นี้ก็ล่มไปด้วย
  • ในด้านอินฟราสตรักเจอร์ OpenAI ได้ลงนามหนังสือแสดงเจตจำนงแบบไม่ผูกพันกับ Samsung และ SK Hynix สำหรับ DRAM wafer สูงสุด 900,000 แผ่นต่อเดือน (ราว 40% ของกำลังการผลิตโลก)
  • Micron เห็นสัญญาณดีมานด์นี้แล้วจึง ปิดแบรนด์หน่วยความจำผู้บริโภค Crucial ที่มีอายุ 29 ปี เพื่อหันไปโฟกัสลูกค้า AI แต่เมื่อ Stargate Texas ถูกยกเลิก ดีมานด์ก็หายไป และราคาหุ้น Micron ก็ร่วงหนัก
  • ไม่ว่าคะแนนเบนช์มาร์กหรือขนาดอินฟราสตรักเจอร์จะใหญ่แค่ไหน โครงสร้างแบบนี้ก็ยังเสี่ยงหลุดเกมได้จาก ความคลาดเคลื่อนเพียงเล็กน้อยของรายได้ที่คาดไว้

จากความฉลาดสู่ความสามารถใช้งานจริง

  • สมมติฐานหลักของแล็บ AI คือ ความสามารถดิบของโมเดล (ความฉลาด) และอินฟราสตรักเจอร์ที่ใช้รันมันจะยังเป็นทรัพยากรหายาก แต่ตอนนี้โมเดลที่ด้อยพลังกว่ากำลังเติบโตเร็วจนแตะระดับของฟรอนเทียร์โมเดลรุ่นก่อน
  • โมเดลโอเพนเวต Gemma 4 ของ Google รันบนโทรศัพท์ได้ ทำ 85.2% บน MMLU Pro และอยู่ระดับเดียวกับ Claude Sonnet 4.5 Thinking บน Arena leaderboard
    • ทำยอด ดาวน์โหลด 2 ล้านครั้ง ในสัปดาห์แรก
    • โมเดลที่เคยเป็น SOTA เมื่อ 18 เดือนก่อน ตอนนี้รันบนโน้ตบุ๊กได้แล้ว และยังดีขึ้นทุกไตรมาส
  • จากการรัน Gemma 4 โดยตรงบน AMD Ryzen AI Max+ พบว่าทั้งความเร็วโทเคนต่อวินาทีและระดับความฉลาดดีมากพอ จนสามารถ ย้ายแบ็กเอนด์ของเครื่องมือส่วนตัวมาที่โมเดลนี้ได้โดยคุณภาพเอาต์พุตไม่ลดลง
  • Anthropic มองเห็นแนวโน้มนี้และเร่งออกเครื่องมือใช้งานจริงอย่าง Claude Code, Claude Cowork, Claude Managed Sessions เพื่อ ล็อกอิน ผู้ใช้ไว้ในระบบนิเวศของตัวเอง
    • ตรรกะสำคัญคือ หากตัวโมเดลเองไม่สามารถเป็นคูเมืองได้ ก็ต้อง ยึดเลเยอร์การใช้งาน และทำให้ต้นทุนการย้ายออกสูงขึ้น
    • ตามการวิเคราะห์หนึ่ง ผู้สมัคร Max plan ($200) มีการใช้คอมพิวต์มูลค่าเทียบเท่า $27,000 ซึ่งสะท้อนว่าแล็บต่าง ๆ กำลังอุดหนุนดีมานด์ไว้ด้วยเงินตัวเอง
  • Apple แทบไม่ต้องใช้เงินกับโครงสร้างพื้นฐาน AI หรือการอุดหนุนการใช้โทเคนของผู้ใช้ จึงมี ทางเลือกและอำนาจต่อรองมากกว่า บริษัทอื่น

บริบทคือทรัพยากรหลัก

  • เมื่อความฉลาดมีอยู่มากขึ้น บริบทจะกลายเป็นทรัพยากรหายาก
    • โมเดลที่อนุมานได้ทุกอย่างแต่ไม่รู้อะไรเกี่ยวกับผู้ใช้เลย ก็เป็นได้แค่เครื่องมือทั่วไป
    • หาก AI จะมีประโยชน์จริงในชีวิตประจำวัน ก็ต้องมีทั้งความสามารถในการให้เหตุผล + บริบทส่วนบุคคล (ข้อความ ปฏิทิน โค้ด ข้อมูลสุขภาพ รูปภาพ นิสัย ฯลฯ)
  • Apple มีบริบทนี้อยู่แล้วผ่าน อุปกรณ์ที่ใช้งานอยู่ 2.5 พันล้านเครื่อง
    • ข้อมูลสุขภาพจาก Apple Watch, รูปภาพบน iPhone, โน้ต, ข้อความ, ประวัติตำแหน่ง, พฤติกรรมในแอป, อีเมล และการรับรู้สภาพแวดล้อมผ่านเซนเซอร์ของอุปกรณ์
  • ด้วย การประมวลผลบนอุปกรณ์ จึงเป็นไปได้ที่จะให้โมเดลเข้าถึงบริบททั้งหมดโดยไม่ต้องส่งข้อมูลออกไปนอกเครื่อง
    • ตำแหน่งทางการตลาดแบบ "Privacy. That's iPhone" จึงอาจเปลี่ยนจากแค่ PR ไปเป็น คุณค่าหลักของข้อเสนอสินค้า
    • การส่งเวชระเบียนกับรูปถ่ายตลอด 15 ปีให้ OpenAI กับการอนุญาตให้โมเดลที่ทำงานเฉพาะในอุปกรณ์เข้าถึงข้อมูลนั้น เป็นคนละเรื่องกันโดยพื้นฐาน
  • ดีล Gemini ($1B) ที่ Apple ทำกับ Google มีไว้สำหรับคำถามที่ต้องใช้การอนุมานระดับคลาวด์ ซึ่งมีต้นทุนเพียงระดับปัดเศษเมื่อเทียบกับค่าใช้คอมพิวต์รายสัปดาห์ของ OpenAI
    • สิ่งที่ Apple เก็บไว้ภายในคือ เลเยอร์บริบท, สแต็ก on-device และระบบปฏิบัติการที่ทำหน้าที่ไกล่เกลี่ยทุกอย่าง

ทำไม Apple Silicon จึงเหมาะกับ AI

  • อย่างที่กระแส Mac Mini หลัง OpenClaw เปิดตัว แสดงให้เห็น Apple Silicon ไม่ได้ถูกสร้างมาเพื่อ AI แต่เพื่อประสิทธิภาพ แบตเตอรี่ ความร้อน และการออกแบบฮาร์ดแวร์/ซอฟต์แวร์แบบบูรณาการ ทว่ากลับพิสูจน์แล้วว่าเป็น สถาปัตยกรรมที่เหมาะอย่างยิ่งสำหรับการรันโมเดลแบบโลคัล
  • หัวใจของการออกแบบคือ Unified Memory
    • สถาปัตยกรรมดั้งเดิมใช้ CPU และ GPU เป็นคนละชิปและคนละพูลหน่วยความจำ ทำให้การย้ายข้อมูลช้าและกินพลังงานมาก
    • Nvidia GPU แม้จะเร็วในการคำนวณเมทริกซ์ แต่การส่งข้อมูลระหว่าง CPU-GPU ผ่าน PCIe bus กลายเป็นคอขวด
    • ส่วนชิปตระกูล M/A ของ Apple วาง CPU, GPU และ Neural Engine ไว้บนไดเดียวกัน พร้อม แชร์พูลหน่วยความจำแบนด์วิดท์สูงชุดเดียว จึงไม่มีโอเวอร์เฮดจากการข้ามบัส การถ่ายโอนข้อมูล และเลเทนซี
  • การอนุมานของ LLM ตอนนี้ติดคอขวดที่แบนด์วิดท์หน่วยความจำ ไม่ใช่คอมพิวต์
    • หัวใจคือความเร็วในการสตรีมน้ำหนักโมเดลจากหน่วยความจำไปยังยูนิตคำนวณ และขนาดหน่วยความจำสำหรับเก็บ KV cache
    • พูลหน่วยความจำรวมของ Apple เปิดให้ทุกยูนิตคำนวณเข้าถึงแบบตรงด้วย แบนด์วิดท์สูง พร้อมกันได้
  • เทคนิค LLM in a Flash มีประสิทธิภาพเป็นพิเศษบนฮาร์ดแวร์ของ Apple
    • มีกรณีรัน Qwen 397B (โมเดลขนาด 209GB) บน M3 Max Mac ด้วย RAM ที่ใช้งานจริงเพียง 5.5GB ที่ความเร็ว ~5.7 โทเคน/วินาที
    • น้ำหนักโมเดลถูกเก็บบน SSD และสตรีมที่ ~17.5 GB/s โดยอาศัยสถาปัตยกรรม MoE (Mixture-of-Experts) ที่ทำให้แต่ละโทเคนเปิดใช้เพียงบาง expert layer
    • และสำหรับการรันนี้ Claude เป็นผู้เขียน Objective-C และ Metal shader ราว 5,000 บรรทัด

พลวัตของแพลตฟอร์มและความคล้ายกับ App Store

  • เช่นเดียวกับ App Store ที่ Apple ไม่ได้เป็นคนสร้างแอป แต่สร้าง แพลตฟอร์มที่แอปรันได้ดีที่สุด แล้วระบบนิเวศจึงค่อยตามมา
    • นักพัฒนาเลือก iOS ไม่ใช่เพราะ Apple ขอ แต่เพราะฐานผู้ใช้ เครื่องมือ และฮาร์ดแวร์ที่สอดคล้องกัน
  • มีความเป็นไปได้ว่าสิ่งเดียวกันจะเกิดกับการอนุมานแบบโลคัล
    • MLX กำลังก้าวขึ้นเป็นเฟรมเวิร์กมาตรฐานโดยพฤตินัยของ on-device AI
    • สถาปัตยกรรมโมเดลหลักอย่าง Gemma, Qwen, Mistral ต่างรองรับ MLX
    • แม้ Apple จะไม่ชนะการแข่งขันเรื่องโมเดล ก็ยังอาจกลายเป็น แพลตฟอร์มโดยพฤตินัยที่โมเดล (หรือเอเจนต์) ใช้รัน
    • กระแส Mac Mini หลัง OpenClaw กลายเป็นไวรัล ก็เป็นตัวอย่างที่สะท้อนความเป็นไปได้นี้

เป็นกลยุทธ์หรือโชค

  • กลยุทธ์การออกแบบฮาร์ดแวร์/ซอฟต์แวร์แบบบูรณาการของ Apple เป็นจุดโฟกัสหลักมาหลายปี ไม่ว่าจะเป็นการวางตำแหน่งด้านความเป็นส่วนตัว การเน้น on-device processing หรือการ ตัดสินใจพัฒนาซิลิคอนเอง ในช่วงที่ทั้งอุตสาหกรรมพึ่งพา Nvidia และ Intel ซึ่งล้วนเป็นตัวเลือกที่เสี่ยงในเชิงธุรกิจ
    • การตัดสินใจเหล่านี้ไม่ได้ทำเพื่อ AI แต่เพื่อเรื่องต้นทุนและธรรมาภิบาล และสุดท้ายกลับส่งผลดีในยุค AI
  • สิ่งที่ Apple อาจไม่ได้คาดการณ์ไว้คือ
    • สถาปัตยกรรม unified memory จะเหมาะกับ LLM อย่างสมบูรณ์แบบ
    • โมเดลโอเพนเวตจะพัฒนาเร็วขนาดนี้
    • การสตรีมโมเดลระดับ 400B พารามิเตอร์จาก SSD จะใช้งานได้จริง
  • บางส่วนอาจเป็นโชค แต่ก็เป็น โชคแบบที่มักเกิดกับบริษัทที่สร้างรากฐานถูกต้อง
  • ขณะที่อุตสาหกรรมที่เหลือทุ่ม 3 ปีไปกับการแข่งขันสร้างโมเดลที่ดีที่สุด Apple กลับ ยืนดูอยู่ข้างสนามว่าดีไวซ์และระบบนิเวศของตนจะเข้ากับอนาคตนี้อย่างไร
  • แม้ยังมีส่วนที่ไม่สมบูรณ์ เช่นข้อจำกัดของ Siri แต่
    • อุปกรณ์ 2.5 พันล้านเครื่อง, บริบทส่วนบุคคลครบถ้วน, การรันโมเดลแบบโลคัลบนซิลิคอนเฉพาะทาง, และการเรียกใช้ Gemini สำหรับคำถามยาก
    • โครงสร้างการอนุมานแบบ ต้นทุนผันแปรแทน CAPEX คงที่ ก็ยากจะมองว่าเป็นตำแหน่งที่เสียเปรียบในยุคที่ AI กลายเป็นเรื่องทั่วไป
  • สรุปแล้ว Apple ยังมีแนวโน้มจะครองบทบาทสำคัญแม้ในอนาคตที่ AI เป็นศูนย์กลาง
    • จะเป็นกลยุทธ์หรือความบังเอิญก็ตาม ประเด็นสำคัญคือ Apple กำลังยืนอยู่บนรากฐานที่ถูกต้อง

5 ความคิดเห็น

 
j2sus91 16 일 전

พูดตรง ๆ คือมันค่อนข้างไร้สาระ
ตอนนี้บริษัททำโมเดล AI กำลังแข่งกันแบบยอมขาดทุนกันอยู่
ก็เลยกลายเป็นว่ามาพูดกันว่า Apple ที่ไม่ได้ทำอะไรเลยกลับได้ประโยชน์เต็ม ๆ ไม่ใช่เหรอ

นั่นก็เพราะตอนนี้มันเป็นกระแสการแข่งขันของโมเดล LLM ที่รุนแรงเกินไปเลยดูเป็นแบบนั้น
ถ้าโมเดล AI อยู่ในช่วงที่เริ่มนิ่งและเติบโต Meta จะบ้าจนปล่อย Gemma ออกมาจริง ๆ เหรอ

ท้ายที่สุดแล้ว ความชำนาญที่สั่งสมมาจากการพัฒนาและดูแลโมเดลมาตลอดต่างหากที่จะกลายเป็นทองและเพชร

 
wang3281 16 일 전

Meta -> Google

ดูจากการใช้จ่ายของ Apple แล้วก็ไม่ได้อยู่นิ่ง ๆ นะครับ เป็นบริษัทที่เหมาะกับการบรรลุ physical AI อยู่เหมือนกัน.. สุดท้าย Nvidia เองก็ไปทาง physical เหมือนกัน.. Google ที่มีครบทุกอย่างนี่แหละสุดยอด

 
sudoeng 16 일 전

ผมคิดว่าประเด็นน่าจะไม่ใช่แค่นั้น แต่เป็นเรื่องที่ท้ายที่สุดแล้วข้อมูลเพื่อการปรับแต่งเฉพาะบุคคลจะกลายเป็นคูเมืองทางการแข่งขันที่สำคัญในยุค AI ถัดไป และ Apple ก็มีสิ่งนั้นอยู่แล้ว จึงน่าจะอยู่ในตำแหน่งที่ได้เปรียบ

 
kimjoin2 16 일 전

Apple เอ๋ย MLX สู้ๆ

 
GN⁺ 16 일 전
ความคิดเห็นจาก Hacker News
  • ผมคิดว่า Gemma4 ทำได้ดีในเรื่องการช่วยเขียนโค้ดหรือเสนอแนะแนวทางแก้ error แต่ยังขาดในด้าน การใช้เครื่องมือ ที่ซับซ้อนหรือความเข้าใจบริบทระดับผู้เชี่ยวชาญ
    ถ้ามันถูกปรับปรุงอีกสักไม่กี่รอบจนเป็นประมาณ Gemma6 แล้วรันแบบโลคัลบน Mac ได้เต็มรูปแบบในระดับเดียวกับ Opus ตอนนี้ ก็คงแทบไม่มีเหตุผลต้องใช้โมเดลบนคลาวด์แล้ว

    • ผมก็รู้สึกคล้ายกัน ตอนแรกผิดหวังที่ Gemma4 เข้ากับ coding agent ได้แย่กว่า Qwen3.5 แต่สำหรับงานอย่างอื่นถือว่าใช้ได้ดีทีเดียว
      เมื่อกี้เพิ่งเห็นข่าวว่า Ollama 0.20.6 ปรับปรุง ความสามารถในการเรียกใช้เครื่องมือ ของ Gemma4 แล้ว ไว้กินข้าวเช้าเสร็จจะลองทดสอบใหม่
    • ให้บรรยากาศแบบเดียวกับคำพูดเก่า ๆ ที่ว่า “640k ก็น่าจะพอแล้ว”
    • เศรษฐกิจก็คือการแข่งขัน สักคนอาจพอใจกับการได้ขวานดี ๆ มาสักเล่ม แต่คนอื่นกำลังขับ รถปราบดิน กันอยู่ ต่อให้คุณมีความสุขกับขวาน นั่นก็แปลว่าคุณหลุดออกจากการแข่งขันไปแล้ว
    • งั้นก็ไม่ใช่ผมคนเดียวสินะ คุณภาพของ Gemma4 น่าประทับใจมาก แต่เวลาใช้กับ opencode มันเขียนการเปลี่ยนแปลงลงไฟล์ได้ไม่ถูกต้องถึง 9 ใน 10 ครั้ง
    • พูดตรง ๆ ตอนนี้โมเดลโลคัลยังไม่จำเป็นสำหรับงานสมรรถนะสูงก็ได้ มีที่อย่าง OpenRouter ให้ใช้โมเดลโอเพนหลายตัว และพวกนี้ก็เข้าใกล้ระดับ SOTA แล้ว
      ผู้ให้บริการหลายเจ้าก็เปิดให้ใช้โมเดลเดียวกันและแข่งกันทั้ง ราคาและประสิทธิภาพ ทำให้ความเสี่ยงเรื่องการผูกขาดลดลง
      ในเครื่องผมมี Gemma อยู่แล้ว เลยคุยเรื่องส่วนตัวหรืองานที่ไม่ใช่โปรแกรมมิงแบบออฟไลน์ล้วนได้
      ในสถานการณ์แบบนี้ ถ้าเป็น OpenAI หรือ Anthropic ก็อาจใช้ ลูกเล่นไม่ค่อยมีจริยธรรม สารพัดเพื่อ lock-in ลูกค้า แต่สุดท้ายก็คงไม่เวิร์ก
  • ผมมองว่ามูลค่ากิจการของ OpenAI ตั้งต้นจากสมมติฐานที่ว่า AI จะทำงานแบบเดียวกับ search
    แต่ search เป็นโครงสร้างที่ยิ่งผู้ใช้ยิง query มากเท่าไร ตัวผลิตภัณฑ์ก็ยิ่งดีขึ้น และ Google ก็เป็น ผลิตภัณฑ์ที่ดีที่สุดจริง ๆ อยู่ได้นานมาก
    ตรงกันข้าม AI แยกส่วนระหว่างการฝึกกับการอนุมาน และหลังจากความแตกแยกภายในของ OpenAI คู่แข่งก็ไล่ตามได้เร็วมาก
    ตอนนี้มันกลายเป็น สงครามเผาทุน ที่ต้องทุ่มเงินระดับหลายพันล้านดอลลาร์ถึงจะแข่งได้ และยิ่งช่องว่างระหว่างโมเดลแคบลงเท่าไร พลังการกระจายสินค้า ก็ยิ่งเป็นตัวตัดสิน
    Google, Meta, MSFT, Amazon ทำได้ แต่ OpenAI เงินทุนไม่พอ

    • มูลค่าของ OpenAI ไม่ได้อยู่แค่การแทนที่ search แต่ยังอยู่ที่ความเป็นไปได้ในการเป็น แพลตฟอร์มของทั้งเว็บ
      มีความคาดหวังสูงว่ามันจะครอบคลุมทั้งระบบอัตโนมัติในองค์กรและแม้แต่แทนที่โซเชียลมีเดียได้ และยังมีมูลค่าอนาคตที่ไม่แน่นอนจาก ความเป็นไปได้ของ AGI เพิ่มเข้าไปอีก
      บทบาทของ Sam Altman คือการขยายความคาดหวังพวกนี้ให้ใหญ่ขึ้นเพื่อ ดันมูลค่าการลงทุนให้สูงสุด
    • ช่วงต้นยุค 2000 ไม่มีทั้งเงินทุนและคนที่จะสู้กับ Google ได้ แต่ตอนนี้การแข่งขัน AI ดุเดือดมากขึ้น ซึ่งจากมุมผู้ใช้ถือเป็นกำไรสุทธิในรูปของ ต้นทุนที่ลดลงและการพัฒนาที่เร็วขึ้น
    • ผมก็คิดคล้ายกัน สุดท้าย Google จะอยู่รอด ส่วน OpenAI กับ Anthropic มีโอกาสสูงที่จะ ถูก MSFT หรือ Amazon ดูดกลืน เพราะปัญหาเงินทุน
      การที่ Apple จับมือกับ Google ก็ดูเป็นภาพเดียวกัน
    • น่าเสียดายที่ Google ทำลายคุณภาพการค้นหาของตัวเอง การตัด operator อย่าง + ออกไปหรือการเซ็นเซอร์เชิงการเมือง เป็นการตัดสินใจที่เข้าใจได้ยาก
    • สำหรับ search จริง ๆ ผมว่าการทำ data curation แบบ RAG น่าจะมีประสิทธิภาพกว่าการสร้างโมเดลใหม่
  • Apple ใช้ กลยุทธ์รอแล้วค่อยกระโดด แบบนี้มาตลอด
    ระหว่างที่บริษัทอื่นลองผิดลองถูก ก็ใช้เวลาทำความเข้าใจข้อจำกัดของเทคโนโลยี แล้วค่อยออกผลิตภัณฑ์ที่สมบูรณ์จนพาตลาดไปต่อได้

    • ใช่เลย รอบนี้ก็เหมือนกัน พวกเขาประกาศ ‘Apple Intelligence’ เพื่อให้ตลาดสบายใจ แต่ก็ยังเดินอย่างระมัดระวัง โดยไม่ลงทุนเกินตัว
      อีกไม่กี่ปีก็มีโอกาสสูงที่จะออกผลิตภัณฑ์ที่สมบูรณ์จริง ๆ
    • ตอนนี้ก็แสดงความก้าวหน้าแบบเงียบ ๆ ผ่านฟีเจอร์อย่าง OCR บนอุปกรณ์และการคัดลอก/วาง อยู่แล้ว
    • ดูจากกรณีอย่าง Newton, Pippin, Vision Pro ก็เป็นแพตเทิร์นที่ Apple ลองอะไรเชิงทดลองซ้ำ ๆ
    • ตั้งแต่ iPhone ปี 2007 มา ผมไม่แน่ใจว่ามันมีผลิตภัณฑ์แบบ ‘กระโดดครั้งใหญ่’ จริง ๆ อีกไหม Watch ก็ใกล้เคียงที่สุด แต่ก็ยังไม่ชัด
    • พ่อแม่ผมใช้ Android ทำพวก “ลบคนออกจากรูป” ได้ แต่ iPhone ของผมยังอยู่ระดับ “Siri เริ่มจับเวลาให้หน่อย”
      ถึงอย่างนั้นผมก็ยังใช้ iPhone เพราะ ไม่อยากฝากข้อมูลส่วนตัวไว้กับ Google
  • Apple ไม่ใช่บริษัทที่เน้น โชว์แชตบอตให้นักลงทุนดู แต่เป็นบริษัทที่เน้น ฮาร์ดแวร์สำหรับผู้บริโภค
    แกนหลักคือ iPhone กับแว่น AR ในอนาคต และ แมชชีนเลิร์นนิงบนอุปกรณ์ ที่จำเป็นต่อสิ่งนั้นก็คือเหตุผลที่พวกเขาออกแบบชิปเอง
    พวกเขาไม่มีเหตุผลต้องสร้างผลิตภัณฑ์แข่งกับ OpenAI

    • ณ FY25 รายได้ของ Apple ประมาณ 25% มาจากบริการ, 50% จาก iPhone และที่เหลือคือฮาร์ดแวร์อื่น ๆ บริการอย่างเดียวก็ราว 100,000 ล้านดอลลาร์แล้ว
    • แว่น AR ดูจะเป็นโปรเจกต์ เชิงวิจัยหรือเป็นประกันความเสี่ยง มากกว่าจะเป็นเดิมพันหลัก
    • หลายคนไม่ได้อยากได้ iPhone เองหรอก แต่ใช้เพราะ ไม่อยากถูกกันออกจาก iMessage
  • ตอนที่บริษัทอื่นเลิกสนใจ VR แล้วหันไป AI กันหมด ผมไม่เข้าใจเลยว่าทำไม Apple ถึงออก เฮดเซ็ต VR มาแทน
    ทั้งราคาแพง นักพัฒนาน้อย และยังเข้าตลาด AI ช้าด้วย

    • Apple มักเข้าทีหลังเสมอ แต่ก็อาจกำลัง สร้างเงื่อนไขให้ลดราคาได้ อยู่
    • ผมมองว่าเป็น กลยุทธ์เช็กพอยต์ เพื่อไม่ให้ตามเทคโนโลยีไม่ทัน เป็นการปูพื้นฐานเพื่อหลบสิทธิบัตรและป้องกันแบรนด์
    • ฮาร์ดแวร์ต้องใช้เวลานานกว่าจะสุกงอม Apple น่าจะทำต้นแบบมาตั้งแต่ช่วง 2015~18 แล้ว
      ถ้าแว่น AR ทำได้สำเร็จจริง มันจะกลายเป็น แพลตฟอร์มขนาดมหาศาล และดูเหมือน Apple กำลังรอจังหวะเปิดตัวหลังจาก Meta ล้มเหลว
  • สิ่งที่ดีที่สุดคือทุกอย่าง รันในเครื่อง ข้อมูลไม่หลุดออกไปข้างนอก
    ผมคิดว่าพวกครีเอเตอร์ก็น่าจะเปิดรับ Apple AI มากกว่า เพราะมันใช้ ข้อมูลฝึกที่มีจริยธรรม และให้ความรู้สึกเหมือนเป็นของที่เราครอบครองเอง ไม่ต้องจ่ายค่าสมาชิก

    • สงสัยว่าทำไมถึงคิดว่าครีเอเตอร์ เกลียด AI กันมากขนาดนั้น
  • ผมปิด Siri มาตั้งแต่ Sequoia แล้ว และชอบที่ Apple ไม่ได้ บังคับ ให้เปิดมันกลับมา
    ตรงกันข้าม JIRA กับ Slack เด้งฟีเจอร์ AI ใหม่ขึ้นมาทุกครั้งจนรำคาญ

    • ผมไม่ชอบท่าทีที่บริษัทต่าง ๆ ยัดฟีเจอร์ใหม่แบบเป็นมลภาวะทางเสียง แต่สิ่งที่เกลียดยิ่งกว่าคือการใส่โฆษณาในสินค้าที่ต้องจ่ายเงิน
      แม้แต่ Apple เอง การเอา โฆษณาสปอนเซอร์ ขึ้นบนสุดใน App Store ก็ให้ความรู้สึกว่าเกินเส้นไปแล้ว
      บน Android ยังมีทางเลือกอย่าง F-Droid แต่บน iOS เลี่ยงได้ยาก
    • ด้วยเหตุนี้ผมเลย ลบ Google Maps ไปแล้ว สรุปที่สร้างโดย AI มันมาบังรีวิวจนใช้งานลำบาก
      Amazon, Uber, Google Workspace ก็ยัด AI คล้าย ๆ กัน
    • สิ่งที่น่าหงุดหงิดกว่าคือ Apple พยายามยัดอัปเดต Tahoe อยู่เรื่อย
      ทั้งที่ผมต้องการแค่แพตช์ของ Sequoia แต่ Tahoe ถูกเลือกเป็นค่าเริ่มต้นตลอด
      แม้แต่การรวม Claude Code ใน Xcode ก็ยังมีแค่บน Tahoe ด้วย ซึ่งไร้เหตุผล
  • การออก MacBook Neo ในจังหวะนี้ถือว่าเป็นกลยุทธ์ที่ยอดเยี่ยม
    ระหว่างที่เฝ้าดูสงคราม AI มันช่วยล็อกผู้ใช้รุ่นถัดไปไว้ใน ecosystem ของ Apple ได้
    Neo ให้ความรู้สึกเหมือน iPod ของคนรุ่นนี้

    • แต่คู่แข่งที่แท้จริงของ Neo ไม่ใช่อุปกรณ์เสมือนจาก OpenAI แต่คือ Chromebook กับโน้ตบุ๊ก Windows
  • Nvidia จำกัดไม่ให้เอา GPU สำหรับเกมเมอร์ไปใช้ในดาต้าเซ็นเตอร์
    ถ้า Apple กลายเป็นภัยคุกคามต่อ ตลาด AI แบบโลคัล พวกเขาอาจออก การ์ด AI สำหรับผู้บริโภค แยกต่างหากก็ได้
    อนาคตอาจเป็นการขายชิปตัวเดียวกันแบบ ตั้งราคาตามการใช้งาน

    • ตาม บทความของ Forbes โน้ตบุ๊ก Arm base ของ Nvidia-Mediatek มีกำหนดเปิดตัวในครึ่งแรกของปี 2026
      ถ้าประสิทธิภาพ NPU แซง Intel·AMD ได้ และรวม GPU ระดับ RTX 5070 ลงในฟอร์มแฟกเตอร์บางได้จริง โครงสร้างของโน้ตบุ๊กเกมมิงอาจเปลี่ยนไปทั้งระบบ
    • การแยก GPU เป็น รุ่นโปรกับรุ่นผู้บริโภค มีมานานแล้ว
    • บริษัทอื่นอย่าง Intel ก็มีข้อจำกัดคล้ายกัน แต่ราคาของ GPU ขึ้นกับ ปริมาณและแบนด์วิดท์ของหน่วยความจำ มากเหมือนกัน
      รุ่นผู้บริโภคราคาถูกกว่า แต่หน่วยความจำน้อยและช้ากว่า
    • สุดท้ายมันคือกลยุทธ์ที่พยายามเอาทั้ง ความชอบของผู้บริโภคและการรีดกำไรสูงสุด
  • Apple ไม่ได้ลงไปแข่งในสนาม LLM จุดแข็งของพวกเขาคือ การออกแบบที่ยึดมนุษย์เป็นศูนย์กลาง
    iPod ก็ไม่ใช่ MP3 player ตัวแรก และ iPhone ก็ไม่มี 3G แต่ก็ยังประสบความสำเร็จ
    Apple โฟกัสกับ ประสิทธิภาพพลังงานและสถาปัตยกรรม unified memory มาตลอด ซึ่งเป็นการออกแบบโดยมองไปถึงผลิตภัณฑ์อนาคตอย่างแว่น AR
    สิ่งที่ NVidia หรือ Intel ทำคนเดียวไม่ได้ Apple เตรียมพร้อมมานานผ่าน การออกแบบรวมทั้งชิป หน่วยความจำ และ SSD
    เหมือนตอนที่พวกเขานำ 64-bit ARM มาใช้ ในตอนนี้คนจำนวนมากก็ยังประเมินความหมายของมันต่ำเกินไป
    GPU ของ NVidia แรงกว่าก็จริงประมาณ 2~3 เท่า แต่กินไฟมากกว่า 10 เท่า
    Apple แข่งด้วย ประสิทธิภาพต่อราคา และเหมาะมากกับงาน LLM แบบโลคัลที่เน้นความทันที ความเป็นส่วนตัว และการใช้งานเฉพาะบุคคล