8 คะแนน โดย GN⁺ 2025-12-03 | 7 ความคิดเห็น | แชร์ทาง WhatsApp
  • เกี่ยวกับ การลงทุนเพิ่มขึ้นอย่างรวดเร็วในศูนย์ข้อมูลของบริษัทยักษ์ AI ระดับโลก IBM CEO Arvind Krishna ได้ตั้งคำถามอย่างรุนแรงต่อด้านความมีผลกำไร
  • เขาชี้ว่าตามต้นทุนปัจจุบัน การสร้าง ศูนย์ข้อมูลขนาด 1 กิกะวัตต์ ต้องใช้เงินประมาณ 80,000 ล้านดอลลาร์สหรัฐ และบริษัทยักษ์ใหญ่หลายแห่งกำลังเดินหน้าโครงการระดับ 20~30 กิกะวัตต์
  • เมื่อพิจารณาในระดับโลก มีการลงทุนโครงสร้างพื้นฐาน AI ขนาดประมาณ 100 กิกะวัตต์ โดยมีมูลค่ารวมประมาณ 8 ล้านล้านดอลลาร์สหรัฐ
  • Krishna ชี้ว่าเมื่อคำนึงถึง การหักค่าเสื่อมราคา 5 ปีของชิป AI และเงินทุนลงทุนขนาดใหญ่แล้ว จะต้องมีผลกำไรปีละ 800 พันล้านดอลลาร์สหรัฐ เพื่อคุ้มต้นทุน ซึ่งในทางปฏิบัติแทบเป็นไปไม่ได้
  • เขาเชื่อว่าในขณะนี้เทคโนโลยีปัจจุบันมีความน่าจะเป็นบรรลุ AGI (ปัญญาประดิษฐ์ทั่วไป) เพียง 0~1% และเน้นว่า LLM อย่างเดียวมีข้อจำกัด

การเติบโตของการลงทุนศูนย์ข้อมูล AI และข้อถกเถียงเรื่องความมีผลตอบแทน

  • ในการแข่งขันเพื่อ AGI บริษัท AI ชั้นนำ กำลังทุ่มเงินเข้าไปในศูนย์ข้อมูลระดับพันล้านดอลลาร์
    • Meta ระบุซ้ำๆ ในรายงานผลประกอบการล่าสุดว่าเกี่ยวข้องกับ "ความจุ (capacity)" และ "โครงสร้างพื้นฐาน AI"
    • Google วางแผนสร้าง ศูนย์ข้อมูลบนฐานอวกาศ ในระยะยาว
  • Krishna กล่าวว่า "การลงทุนเหล่านี้แทบไม่มีโอกาสได้ผลตอบแทนกลับมา"
    • เขาชี้ว่านี่เป็นการคำนวณจาก "จุดปัจจุบัน" และยอมรับว่าต้นทุนในอนาคตยังไม่แน่นอน

การคำนวณต้นทุนและการวิเคราะห์ความคุ้มค่าโดย Krishna

  • เขาอธิบายว่าการสร้าง ศูนย์ข้อมูลขนาด 1 กิกะวัตต์ ต้องใช้เงินราว 80 พันล้านดอลลาร์สหรัฐ
    • หากบริษัทหนึ่งมีแผนขยายไปที่ 20~30 กิกะวัตต์ จะเกิดการใช้จ่ายด้านทุน (CAPEX) ถึง 1.5 ล้านล้านดอลลาร์สหรัฐ
  • มีการลงทุนระดับประมาณ 100 กิกะวัตต์ ในระดับโลก โดยมูลค่าประมาณ 8 ล้านล้านดอลลาร์สหรัฐ
    • ในกรณีเช่นนี้จำเป็นต้องมีผลกำไร 800 พันล้านดอลลาร์สหรัฐต่อปี เพื่อให้สามารถรับภาระเฉพาะดอกเบี้ยได้
  • เขาออกความเห็นชัดเจนว่าคงไม่สามารถสร้างผลกำไรขนาดนั้นได้

ค่าเสื่อมราคาและความเสี่ยงในการลงทุน

  • เขาชี้ว่า การหักค่าเสื่อมราคา 5 ปีของชิป AI เป็นความเสี่ยงหลัก
    • เขากล่าวว่า "หลัง 5 ปี ก็ต้องเปลี่ยนชิปแล้วเติมใหม่"
  • นักลงทุน Michael Burry ก็ชี้จุดอ่อนเรื่องการหักค่าเสื่อมราคาใน Nvidia ซึ่งเป็นปัจจัยหนึ่งที่จุดชนวนให้หุ้น AI ลดลง
  • Krishna ประเมินว่าสิ่งนี้ทำให้ ROI (ผลตอบแทนจากการลงทุน) แย่ลงมากขึ้น

ความสงสัยต่อความเป็นไปได้ในการบรรลุ AGI

  • Krishna ระบุว่าความน่าจะเป็นในการบรรลุ AGI ด้วยเทคโนโลยีปัจจุบันอยู่ที่ 0~1%
    • เขาพูดว่า "หากไม่เกิดการปฏิวัติเทคนิคเพิ่มขึ้นก็เป็นไปไม่ได้"
  • เขาเสนอว่า LLM (โมเดลภาษาใหญ่) อย่างเดียวมีข้อจำกัด และจำเป็นต้องผสมผสานกับ 'hard knowledge' เพื่อก้าวต่อ
  • Elson Sutskever ของ OpenAI ยังเน้นย้ำว่า "ยุคของการขยายขนาด (scaling) ได้สิ้นสุดลง" และชี้ให้หันไปสู่การวิจัยมากขึ้น

มุมมองเชิงวิจารณ์จากภาคอุตสาหกรรม

  • Marc Benioff มองการผลักดัน AGI ว่าเป็น "เหมือนการสะกดจิต" แสดงความไม่เชื่อ
  • Andrew Ng กล่าวว่าความคาดหวังต่อ AGI "ถูกประเมินค่าสูงเกินไป"
  • Mistral CEO Arthur Mensch ระบุว่า AGI คือการวางแผนเชิงการตลาด

สรุปมุมมองสุดท้ายของ IBM CEO

  • Krishna เห็นว่าปัจจุบันเครื่องมือ AI กำลังสร้างมูลค่าหลายล้านล้านดอลลาร์ในความเป็นผลิตภาพขององค์กร
  • อย่างไรก็ตาม เขาย้ำว่าการบรรลุ AGI จำเป็นต้องมีความก้าวหน้าทางเทคนิคที่เกินเส้นทาง LLM ปัจจุบัน
  • เขาถือท่าทีระมงายว่า "แม้ทำได้ อาจมีแต่ระดับ 'อาจเป็นได้' เท่านั้น"

7 ความคิดเห็น

 
un0haep337 2025-12-04

ผมเห็นด้วยว่าขนาดและแผนการลงทุนในศูนย์ข้อมูล AI ตอนนี้อาจมากเกินไป แต่แผนก็ยังเป็นเพียงแผนเท่านั้น และในสถานการณ์ที่ไม่มีใครคาดการณ์ความเร็วและทิศทางของพัฒนาการทางเทคโนโลยีได้ การตัดสินอย่างฟันธงแบบนี้มีความเสี่ยง และดูเหมือนจะไม่ใช่การตัดสินใจที่ดีในฐานะ CEO

 
halfenif 2025-12-04

(ในบทสัมภาษณ์หนึ่ง) ผมประทับใจกับคำถามที่ถามคุณชเวแทวอน ประธาน SKT ว่าคิดว่า AI เป็นฟองสบู่หรือไม่ และคำตอบของเขา
> ถ้าจำอารมณ์ของคำพูดได้ประมาณว่า "ถึงมันจะเป็นฟองสบู่จริง ๆ ก็เถอะ แต่ในเมื่อคนอื่นทำกันหมด ก็ไม่อาจไม่ทำได้"

 
aer0700 2025-12-06

พูดตรงดีนะ

 
mhj5730 2025-12-04

ถ้าดูจากเงินที่ต้องใส่เข้าไป ก็น่าจะมีการเพิ่มประสิทธิภาพในทุกด้านที่สามารถทำให้มีประสิทธิภาพได้
[ต้นทุนพลังงาน, ประสิทธิภาพของพารามิเตอร์ LLM, การแคช ฯลฯ] สิ่งเหล่านี้ในท้ายที่สุดอาจทำให้ใช้เงินน้อยกว่าที่คาดไว้ก็ได้ครับ อืมๆ..ท่าทีมองโลกในแง่ร้ายต่อปัญญาประดิษฐ์แบบ (~~ ไม่มีทางเป็นไปได้เด็ดขาด) มักจะถูกทำลายลงเสมอ

ต่อให้ดูแค่ LLM อย่างเดียว สำหรับผมมันก็ให้ความรู้สึกเหมือนปาฏิหาริย์ครับ

 
bus710 2025-12-04

ถ้ามองตามตัวเลขก็เป็นแบบนั้นแหละ...
แต่นอกจาก LLM กับดาต้าเซ็นเตอร์แล้ว ก็ดูเหมือนไม่น่าจะมีอะไรที่พอจะขับเคลื่อนเศรษฐกิจสหรัฐได้อีกไม่ใช่เหรอครับ

 
love7peace 2025-12-03

ก็แทบจะตรงกับที่ฉันคิดเลย... พวกเราแค่ขายหน่วยความจำให้ได้เยอะ ๆ ก็พอแล้วแหละ

 
GN⁺ 2025-12-03
ความคิดเห็นจาก Hacker News
  • มีการอ้างคำพูดของ Steve Jobs ว่าในปี 1958 IBM พลาดเทคโนโลยี xerography ต่อมาอีก 10 ปีก็มองข้าม มินิคอมพิวเตอร์ และอีก 10 ปีถัดมาก็ประเมิน Apple II ต่ำเกินไป
    พอมาดูตอนนี้ที่ CEO ของ IBM พูดว่า “การลงทุนในดาต้าเซ็นเตอร์ AI ไม่ทำกำไร” ก็เหมือน IBM ยังอ่านอนาคตพลาดอยู่เหมือนเดิม
    ข้อมูลที่เกี่ยวข้อง: Steve Jobs 1983 Keynote, ประวัติการประดิษฐ์ Xerox

    • IBM เคยออกคอมพิวเตอร์ส่วนบุคคลชื่อ IBM 5100 ตั้งแต่ปี 1975 แล้ว ปัญหาคือราคาสูงเกินไป
      หลังจากนั้น IBM PC (5150) ใช้ชิ้นส่วนเชิงพาณิชย์เพื่อลดราคา และนั่นคือกุญแจของความสำเร็จ
      IBM 5100 วิกิ
    • ไม่เข้าใจว่าตัวอย่างในอดีตเหล่านี้เกี่ยวอะไรกับการตัดสินใจของ CEO คนปัจจุบัน
    • มองว่าไปโฟกัสที่คนพูดแทนที่จะโฟกัสที่สาระนั้นไม่มีประโยชน์ Xerox หมดยุคไปแล้ว แต่ IBM ยังเป็นบริษัทขนาด 3 แสนล้านดอลลาร์
      Apple II เองก็มีอิทธิพลน้อยมากในตลาดองค์กร อีกอย่างนี่เป็นเรื่องเมื่อ 50 ปีก่อน ซึ่งแยกจากประเด็นเรื่อง ผลตอบแทนจากการลงทุน (ROI) ของ AI ในตอนนี้
    • DEC หายไปแล้ว และ Xerox มีมูลค่าตลาดแค่ประมาณ 1/1000 ของ IBM ความ เปิดกว้างของสถาปัตยกรรม PC ของ IBM ต่างหากที่เป็นปัจจัยให้ครองตลาดได้
  • CEO ของ IBM บอกว่า “ชิป AI ผ่านไป 5 ปีก็ต้องทิ้ง” ซึ่งดูเป็นสมมติฐานที่ฟันธงเกินไป
    ถ้าฮาร์ดแวร์ยังเสถียรแม้ผ่านไป 5 ปี ก็ยังมี ช่องทางสร้างรายได้ด้วยการนำโมเดลรุ่นเก่ามารันในราคาถูก

    • Michael Burry กลับมองว่าระยะคิดค่าเสื่อม 5 ปียังใจกว้างเกินไป ที่จริงควรเป็น 2~3 ปี
      ทวีตของ Burry
    • ระยะเวลาค่าเสื่อมมาตรฐานของฮาร์ดแวร์เซิร์ฟเวอร์ก็คือ 5 ปีอยู่แล้ว จึงไม่ใช่ปัญหาเฉพาะของ GPU
    • เซิร์ฟเวอร์รุ่นเก่าก็ยังทำงานได้ดี แต่เมื่อเทียบกับเทคโนโลยีใหม่แล้วจะคุ้มทุนน้อยกว่าเพราะ ประสิทธิภาพการใช้พลังงาน
    • เหมือนกรณี การขุดคริปโต ความต้องการ GPU อาจทำให้รอบการเปลี่ยนเร็วขึ้นเมื่อ ASIC เข้ามา
      สุดท้ายวงจร 5 ปีจะมีผลอย่างมากต่อการตัดสินใจลงทุน
    • ถ้าคู่แข่งใช้ชิปที่มีประสิทธิภาพสูงกว่า สุดท้ายก็ต้องทิ้งฮาร์ดแวร์เก่าแล้วอัปเกรดอยู่ดี
  • มองว่าการลงทุนในดาต้าเซ็นเตอร์ AI คงเกิดขึ้นจริงทั้งหมดได้ยาก แค่ ความต้องการไฟฟ้า ก็เป็นข้อจำกัดแล้ว

    • ประเทศฝั่งตะวันตกมีสำรองไฟฟ้าต่ำ แต่ จีนรักษากำลังสำรองไว้ 100% จึงรับมือกับอุปสงค์ที่พุ่งขึ้นได้
    • แต่ CEO ต่าง ๆ ก็น่าจะศึกษามาเพียงพอแล้ว คงยากจะบอกว่าเรารู้ดีกว่าพวกเขา
  • Gartner คาดว่าการใช้จ่ายด้าน AI ทั่วโลกในปี 2025 จะสูงถึง 1.5 ล้านล้านดอลลาร์
    เมื่อเทียบกับ GDP โลก (111 ล้านล้านดอลลาร์ ณ ปี 2024) ก็ไม่นับว่าเกินจริงมากนัก
    อายุการลงทุน AI ประเมินไว้ราว 6~8 ปี และถ้าไม่ได้มองโลกในแง่ร้ายเกินไปก็ถือว่าเป็นขนาดที่สมเหตุสมผล
    รายงานของ Gartner
    ข้อมูล GDP ของธนาคารโลก

    • แต่คำถามว่า นักลงทุนจะได้ประโยชน์จาก GDP ที่เพิ่มขึ้นนั้นจริงหรือไม่ เป็นอีกเรื่องหนึ่ง
    • GPU จะ ล้าสมัย เร็วกว่าระยะ 6~8 ปีมาก จึงอาจทำให้ช่วงเวลาคืนทุนสั้นลง
  • ถ้าบริการ LLM ใช้ โหมดตอบสั้นเป็นค่าเริ่มต้น (ไม่เกิน 200 โทเค็น) และใช้ prompt caching กับการ route ไปยังโมเดลขนาดเล็ก
    ก็มองว่าสามารถ ลดการใช้พลังงานได้มากกว่า 70%
    ในระดับ ChatGPT ค่าไฟรายปีอยู่ที่ 50~100 ล้านดอลลาร์ แต่ถ้าใช้วิธีนี้จะลดเหลือ 5~10 ล้านดอลลาร์
    ถ้า EU หรือแคลิฟอร์เนียบังคับใช้โหมดแบบนี้ ก็จะเกิดการเปลี่ยนแปลงใหญ่ต่อ เศรษฐศาสตร์ของดาต้าเซ็นเตอร์

    • ถ้าอย่างนั้นก็สงสัยว่าทำไมการทำให้เหมาะสมแบบนี้ที่ ลดได้ 90% ถึงยังไม่ถูกนำมาใช้
  • เมื่อ 10 ปีก่อน IBM เคยโหมโฆษณา “Watson” พร้อมคำอย่าง “Cognitive Finance” แต่ตอนนี้ไม่มีใครพูดถึงแล้ว
    เลยอดคิดไม่ได้ว่าหรือ IBM จะ ไม่พอใจที่กระแส AI รอบนี้ถูกคนอื่นนำอยู่

    • IBM เคยกระโดดเข้า AI และคลาวด์ ตั้งแต่เนิ่น ๆ เช่นกัน แต่ก็ยึดส่วนแบ่งตลาดไม่ได้
      เดโมเทคโนโลยีน่าประทับใจ แต่ไม่มี โมเดลรายได้จริง
    • ที่ปรึกษาภายนอกเคยพยายามขาย Watson ว่าเป็นคำตอบของทุกปัญหา แต่ในความจริงมัน แพงและไร้ประโยชน์
      ยังจำได้ว่าต้องสร้าง PoC เองเพื่อพิสูจน์ว่ามันใช้ไม่ได้
    • เพราะ IBM ผ่านความล้มเหลวแบบนี้มา ตอนนี้จึงอาจมีมุมมองที่ ตั้งคำถามมากกว่าเดิม
      ถึงอย่างนั้นเมื่อดูจากสถานะของบริษัทในตลาด ก็ไม่ใช่ความเห็นที่ควรถูกมองข้ามทั้งหมด
    • ความล้มเหลวของ Watson ไม่ได้ทำให้การตัดสินใจของ CEO ตอนนี้เป็นโมฆะ
    • หรือ IBM อาจแค่กำลังประเมินตามจริงว่า “การลงทุนระดับพันล้านดอลลาร์ มันไม่คุ้ม ROI”
  • อย่างที่ CEO ของ IBM พูดไว้ ประเด็นที่ว่า AI ทำกำไรได้ยาก ก็มีเหตุผลอยู่
    ตามเกณฑ์ของ NVIDIA ไฟฟ้าระดับ 1GW สามารถสร้างโทเค็นได้ปีละ 6.29×10^16 โทเค็น
    ถ้าข้อความทั้งหมดบนอินเทอร์เน็ตมีระดับ 10^14 โทเค็น ข้อมูลเองก็อาจชนเพดานได้

    • แต่ดูเหมือนตัวเลขนั้นจะตั้งไว้ต่ำเกินไป ถ้ารวมข้อมูลภาพและวิดีโอด้วย ความต่างจะเป็น หลายลำดับขั้น
    • ถ้ารวม image token ด้วย ก็น่าจะต่างกันอย่างน้อย มากกว่า 5 ลำดับขั้น
    • แต่ก็ยังไม่ค่อยเข้าใจว่าทำไมการคำนวณแบบนี้ถึงพาไปสู่ข้อสรุปว่า “AI ทำกำไรไม่ได้”
  • ในการถกเถียงเรื่อง AI ตอนนี้มี ปัจจัยความกลัว อยู่ 3 อย่าง

    1. กลัวว่ามันอาจเป็นฟองสบู่
    2. กลัวว่าอาจมีการปฏิวัติครั้งใหญ่เกิดขึ้นจริง
    3. กลัวว่าจะ พลาดการปฏิวัตินั้นไป (FOMO)
      IBM ไม่ได้มีข้อมูลเชิงลึกพิเศษอะไรนัก แต่แค่สะท้อนความกลัวบางส่วนเหล่านี้เท่านั้น
  • มองว่าการลงทุนโครงสร้างพื้นฐาน AI คล้ายกับ การลงทุนไฟเบอร์ออปติกเกินตัวในยุคฟองสบู่ดอตคอม
    ในระยะยาวมันมีคุณค่า แต่บริษัทแต่ละรายอาจล้มเหลวอย่างหนักได้
    สิ่งที่สำคัญกว่า จำนวน GPU คืออัตราการใช้งานและโมเดลรายได้

    • ฝั่งที่ไม่เห็นด้วยได้แนะนำ บทความบล็อก ที่พูดถึงประเด็นคล้ายกัน
    • แต่ไฟเบอร์ออปติกมีมูลค่าระยะยาวที่ชัดเจน ขณะที่ GPU มีการใช้งานนอกเหนือจาก AI อย่างจำกัด จึงเสี่ยงกว่า
  • IBM เป็นบริษัทที่ พลาดโอกาส ทั้งในฮาร์ดแวร์ผู้บริโภค ระบบปฏิบัติการ และคลาวด์
    คำพูดของ CEO อาจถูกก็ได้ แต่ไม่เหมาะจะใช้เป็น มาตรฐานในการทำนายอนาคต