1 คะแนน โดย GN⁺ 2025-10-06 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • ขณะที่ Nvidia อัดฉีดเงินมหาศาลเข้าสู่โครงสร้างพื้นฐาน AI เช่น OpenAI ผ่านการลงทุนมูลค่า 1.1 แสนล้านดอลลาร์ ก็เริ่มมีการถกเถียงถึงความกังวลว่าโครงสร้างการจัดหาเงินทุนแบบเวนเดอร์ที่เป็นวงจรลักษณะนี้กำลังหวนกลับมา คล้ายกับช่วงฟองสบู่โทรคมในอดีต
  • ในปี 2025 บริษัท IT ชั้นนำของสหรัฐประกาศแผนลงทุนในโครงสร้างพื้นฐาน AI มูลค่า300,000~400,000 ล้านดอลลาร์ ทำให้ความเสี่ยงอย่างการกระจุกตัวของฐานลูกค้าและสินเชื่อที่ใช้ GPU เป็นหลักประกันขยายตัวมากขึ้น
  • แม้ Nvidia จะแตกต่างจาก Lucent ที่เคยล้มเหลวในด้านกระแสเงินสด ความน่าเชื่อถือของลูกค้า และความโปร่งใสทางบัญชี แต่ประเด็นอย่างการพึ่งพาลูกค้ารายใหญ่ มูลค่าทรัพย์สิน และการขยายตัวของ custom siliconยังถูกชี้ว่าเป็นปัจจัยที่ต้องระวัง
  • มีการเน้นย้ำถึงความจำเป็นในการติดตามอย่างต่อเนื่องว่าอุปสงค์ AI เป็นอุปสงค์จริงหรือไม่ จะกลายเป็นโครงสร้างพื้นฐานจำเป็นเหมือนคลาวด์ หรือเป็นเพียงฟองสบู่เท่านั้น
  • เพื่อไม่ให้ความเสี่ยงเชิงโครงสร้างในอดีตซ้ำรอยเหมือนกรณีทุจริตทางบัญชีของ Lucent จึงต้องจับตาอย่างใกล้ชิดทั้งมูลค่าทรัพย์สิน โมเดลรายได้ และความเสี่ยงด้านหนี้ของ Nvidia และอุตสาหกรรมโดยรวม

บทนำ: Nvidia, การเงินแบบวนลูป และเงาของฟองสบู่โทรคม

  • ในปี 2025 Nvidia ดำเนินvendor financing มูลค่า 1.1 แสนล้านดอลลาร์ให้กับ OpenAI และรายอื่น ๆ ทำให้ความคล้ายคลึงกับโครงสร้างการเงินแบบวนลูปขนาดใหญ่ในยุคฟองสบู่โทรคมถูกพูดถึงมากขึ้น
  • บรรดา Big Tech ของสหรัฐประกาศแผนลงทุนโครงสร้างพื้นฐาน AI มูลค่า300,000~400,000 ล้านดอลลาร์ในปี 2025
  • ขนาดการลงทุนนี้สูงกว่าสถิติการลงทุนโครงสร้างพื้นฐานของบริษัทในปีเดียวที่เคยมีมาอย่างมาก

ยุทธศาสตร์ของ Lucent: บทเรียนจากการเงินแบบวนลูป

  • ในปี 1999 Lucent Technologies ทำรายได้ 3.79 หมื่นล้านดอลลาร์ที่จุดสูงสุดของฟองสบู่ดอตคอม ก่อนจะร่วงลง 69% ภายในเวลาเพียง 3 ปี และสุดท้ายเดินหน้าไปสู่การควบรวมกับ Alcatel
  • ในเวลานั้น ผู้ผลิตอุปกรณ์อย่าง Lucent, Nortel และ Cisco ใช้vendor financing มูลค่าหลายพันล้านดอลลาร์เพื่อให้เงินลูกค้าซึ่งเป็นบริษัทโทรคมโดยตรงสำหรับซื้ออุปกรณ์
    • Lucent 8.1 พันล้านดอลลาร์, Nortel 3.1 พันล้านดอลลาร์, Cisco 2.4 พันล้านดอลลาร์ในภาระผูกพันด้านเงินกู้
  • ในช่วงแรก กลยุทธ์นี้ดูเหมือนจะเป็นประโยชน์กับทุกฝ่าย แต่เมื่อเกิดภาวะตลาดอิ่มตัวและสภาพคล่องตึงตัว ลูกค้าส่วนใหญ่ (CLEC 47 ราย) ล้มละลาย เงินกู้ 33~80% เรียกคืนไม่ได้ และมูลค่าอุปกรณ์ทรุดฮวบ กลายเป็นผลลัพธ์ที่ร้ายแรง
  • ในความเป็นจริง เครือข่ายใยแก้วนำแสงถูกใช้งานเพียง 0.002% ของความจุที่มีอยู่ แสดงให้เห็นว่าจังหวะการลงทุนเร็วกว่าความต้องการจริงมาก

ยุทธศาสตร์ของ Nvidia: โครงสร้างการเงินแบบวนลูปที่แตกต่าง

  • ณ ปี 2025 Nvidia บริหารการลงทุนโดยตรง 1.1 แสนล้านดอลลาร์ (85% ของรายได้) และสินเชื่อที่ใช้ GPU เป็นหลักประกันมากกว่า 1.5 หมื่นล้านดอลลาร์
    • กับ OpenAI มีข้อตกลงเฉพาะมูลค่า 1 แสนล้านดอลลาร์ (แบ่งจ่าย 10 tranche, จ่ายตามแต่ละขั้นของการสร้างโครงสร้างพื้นฐาน, กระแสเงินจริงไหลเข้าในรูปแบบการเช่า GPU)
    • ยังมีการลงทุนเพิ่มเติมใน CoreWeave, NVentures และการขยายตัวของตลาดสินเชื่อที่ใช้ GPU เป็นหลักประกัน
  • ในกรณีของ CoreWeave บริษัทมีหนี้ที่ใช้ GPU เป็นหลักประกันอยู่ 1.045 หมื่นล้านดอลลาร์ และสตาร์ตอัป AI รายอื่นอย่าง Lambda Labs ก็ใช้ GPU เป็นหลักประกันเงินกู้เช่นกัน

เปรียบเทียบตัวเลข: Lucent vs Nvidia (แปลงเป็นดอลลาร์ปี 2024)

รายการ Lucent (2000) Nvidia (2025)
Vendor financing 1.5 หมื่นล้านดอลลาร์ 1.1 แสนล้านดอลลาร์
กระแสเงินสดจากการดำเนินงาน 300 ล้านดอลลาร์ 1.54 หมื่นล้านดอลลาร์ (ไตรมาส 2 ปีงบประมาณ 22)
รายได้ต่อปี 3.4 หมื่นล้านดอลลาร์ 1.3 แสนล้านดอลลาร์
สัดส่วนลูกค้า 2 อันดับแรก 23% 39%

จุดที่ต้องระวัง: โครงสร้างความเสี่ยงทางตลาดรูปแบบใหม่

1. ฐานลูกค้า AI ที่กระจุกตัวมากขึ้น

  • รายได้ของ Nvidia กระจุกตัวอยู่กับลูกค้า 2~4 รายแรกถึง 46% สูงกว่าระดับของ Lucent ถึง 2 เท่า
  • รายได้ 88% มาจากดาต้าเซ็นเตอร์

2. การขยายตัวของสินเชื่อที่ใช้ GPU เป็นหลักประกันและความเสี่ยงด้านสต็อก

  • GPU ถูกนำไปใช้กับเงินกู้อัตราดอกเบี้ยสูง 14% โดยตั้งอยู่บนสมมติฐานว่ามูลค่าจะคงอยู่ได้ 4~6 ปี (ราว 3 เท่าของหุ้นกู้บริษัทระดับ investment grade)
  • แต่พบว่าอายุการใช้งานจริงของ GPU ในภาคใช้งานอยู่เพียง 1~3 ปี (จากกรณีจริงของผู้ออกแบบที่ Google และ Meta)
บริษัท ก่อนปี 2020 2020 2022~2023 2024~2025 การเปลี่ยนแปลง
Amazon 3 ปี 4→5 ปี 5 ปี 6→5 ปี ลดลงเป็นครั้งแรก
Microsoft ราว 3 ปี 4 ปี 6 ปี 6 ปี +100%
Google ราว 3 ปี 4 ปี 6 ปี 6 ปี +100%
Meta ราว 3 ปี 4 ปี 4.5→5 ปี 5.5 ปี +83%
CoreWeave N/A N/A 4→6 ปี 6 ปี +50% (GPU)
Nebius N/A N/A 4 ปี 4 ปี มาตรฐานอุตสาหกรรม
  • ในปี 2025 Amazon ปรับระยะเวลาค่าเสื่อมกลับจาก 6 ปีเป็น 5 ปี กลายเป็นรายแรกที่ใช้นโยบายบัญชีแบบอนุรักษ์นิยมมากขึ้น

  • โดยทั่วไป CPU มักใช้งานได้ 5~10 ปี แต่ GPU ในดาต้าเซ็นเตอร์ AI มักถูกเปลี่ยนภายใน 1~3 ปีในการใช้งานจริง (Meta Llama 3: อัตราเสีย 9% ต่อปี → คาดเสียสะสม 27% ใน 3 ปี)

  • สถาบันการเงินหลักบางแห่ง (เช่น Cerno Capital) ตั้งคำถามว่า “นโยบายค่าเสื่อมเหล่านี้สะท้อนความเป็นจริงทางเศรษฐกิจและเทคโนโลยีอย่างแท้จริงหรือไม่ หรือเป็นเพียงกลยุทธ์ ‘ภาพลวงตา’ เพื่อเบี่ยงความสนใจนักลงทุน”

4. การใช้โครงสร้าง SPV (บริษัทเฉพาะกิจ)

  • บริษัทเทคโนโลยีขนาดใหญ่ระดมทุนก่อสร้างดาต้าเซ็นเตอร์ผ่านการร่วมลงทุนแบบ SPVกับกองทุนเอกชนอย่าง Apollo

    • SPV เป็นผู้ถือครองและดำเนินงานดาต้าเซ็นเตอร์ แล้วปล่อยเช่าระยะยาวให้บริษัทเทคโนโลยี
    • หนี้ของ SPV ไม่ถูกบันทึกในงบการเงินของบริษัทเทคโนโลยี (off-balance sheet)
    • โดยทั่วไปมีโครงสร้างทุน 10~30% และหนี้ 70~90%
  • โครงสร้างลักษณะนี้มีข้อดี เช่น ปกป้องอันดับความน่าเชื่อถือและลดการเปิดเผยภาระการลงทุน แต่หากอัตราการใช้งานดาต้าเซ็นเตอร์ลดลงหรือมูลค่า GPU ร่วง ผู้ถือชั้นทุนที่บางกว่า (equity holder) จะเป็นฝ่ายรับความเสียหายก่อน

  • ปัจจุบันสินทรัพย์ดาต้าเซ็นเตอร์คิดเป็น 10~22% ของพอร์ต REIT หลัก เพิ่มขึ้นรวดเร็วจาก ‘0’ เมื่อ 2 ปีก่อน

5. ความเสี่ยงจากการแข่งขันของ custom silicon

  • การใช้งาน AI accelerator ที่พัฒนาเองโดยตรงกำลังขยายตัว เช่น Microsoft (Maia), Google (TPU), Amazon (Trainium/Inferentia), Meta (MTIA)
  • หากลูกค้าเปลี่ยนไปใช้ชิปของตนเอง มูลค่าทรัพย์สินที่ใช้ GPU เป็นหลักประกันของ CoreWeave และรายอื่นอาจลดลง และทำให้ความเสี่ยงของ vendor financing ของ Nvidia สูงขึ้น

ความแตกต่างเชิงแก่นระหว่าง Nvidia กับ Lucent

  • Lucent: ตกแต่งรายได้ 1.1 พันล้านดอลลาร์, ผู้บริหาร 10 คนถูก SEC ฟ้อง, งบการเงินขาดความน่าเชื่อถือ
  • Nvidia: อยู่ภายใต้การตรวจสอบของ PwC, อันดับเครดิตดีขึ้น, สร้างเงินสดมากกว่า 5 หมื่นล้านดอลลาร์ต่อปี, รักษาสถานะเงินสดสุทธิ 4.62 หมื่นล้านดอลลาร์ (2024)
  • Lucent: ลูกค้าส่วนใหญ่ใช้เลเวอเรจหนี้สูงเกินไปและอยู่ในภาวะขาดทุน
  • Nvidia: ลูกค้ารายใหญ่สุด (Microsoft, Alphabet, Amazon, Meta ฯลฯ) มีพื้นฐานแข็งแรงด้วยกระแสเงินสดจากการดำเนินงานรวม 4.51 แสนล้านดอลลาร์ในปี 2024
  • Lucent มีการใช้งานจริงเพียง 0.002% เทียบกับการลงทุน แต่ฝั่ง Nvidia ลูกค้ารายใหญ่กลับรายงานปัญหาขาดแคลนโครงสร้างพื้นฐาน AI (ข้อจำกัดด้านอุปทาน)

ตัวชี้วัดที่ต้องจับตา

  1. อัตราการใช้งาน GPU: ต้องติดตามต่อเนื่องว่า GPU ในดาต้าเซ็นเตอร์ถูกใช้งานจริงมากพอหรือเป็นเพียงการกักตุนสต็อก
  2. ความสามารถทำกำไรของ OpenAI: ต้องตรวจสอบว่าการสร้างโครงสร้างพื้นฐานขนาดใหญ่แปรเป็นรายได้ที่คุ้มค่าหรือไม่
  3. สัญญาณหนี้เสีย: ต้องดูว่าตลาดสินเชื่อที่ใช้ GPU เป็นหลักประกันมูลค่า 1.5 หมื่นล้านดอลลาร์เริ่มมีสัญญาณผิดนัดชำระหรือไม่
  4. แนวโน้มการบริหาร AR (Accounts Receivable): แม้อัตราส่วน AR ดีขึ้น (68%→30%) แต่ยังต้องระวังการทรุดลงเพิ่มเติม
  5. การกระจายฐานลูกค้า: ต้องติดตามว่ามีการหาลูกค้ากลุ่มใหม่ได้หรือยัง และยังพึ่งพาลูกค้ารายใหญ่ไม่กี่รายต่อไปหรือไม่
  6. ประเด็น custom silicon: หาก hyperscaler หันไปใช้ชิปของตนเอง ความเสี่ยงจากการเปิดรับ financing ของ Nvidia จะเพิ่มขึ้น
  7. แนวโน้มการรวมตัวของเวนเดอร์: หลังตลาดทดลองทางเลือกหลายแบบ ความต้องการอาจไปกระจุกอยู่ที่เวนเดอร์เพียงไม่กี่รายในท้ายที่สุด
  • อัตราการใช้งาน AI จริงในสหรัฐเพิ่มจาก 20% ในปี 2023 เป็น 40% ในปี 2025
  • แต่ตามงานวิจัยของ MIT โครงการนำร่อง AI ถึง 95% ยังไม่สร้างผลลัพธ์ทางการเงินที่เป็นรูปธรรม สะท้อนปัญหาด้านการบูรณาการ
  • ถึงกระนั้น ก็ยังมีสัญญาณบวก เช่น ค่าแรงของแรงงาน AI เพิ่มเป็น 2 เท่า และผลิตภาพของผู้ใช้เพิ่มได้ถึง 40%
  • OpenAI มีรายได้ 4.3 พันล้านดอลลาร์และขาดทุน 4.7 พันล้านดอลลาร์ในครึ่งแรกของปี 2025 (ครึ่งหนึ่งเป็นค่าตอบแทนแบบหุ้น) จึงยังอยู่ในภาวะขาดทุน
  • ต่างจากอดีต ลูกค้ารายใหญ่ในปัจจุบันมีเงินสดเพียงพอ รักษาการบริหารที่เน้นผลลัพธ์ และมีอุปสงค์โครงสร้างพื้นฐานจริงอยู่

บทสรุป: ความเสี่ยงเชิงโครงสร้างของการเงินแบบวนลูปและตลาด AI ปี 2025

  • กลยุทธ์ vendor financing ขนาดใหญ่ของ Nvidia อาศัยการเติบโตและความต้องการเทคโนโลยีที่ชัดเจน แต่ก็แฝงความเสี่ยงอย่างการกระจุกตัวของลูกค้า ความผันผวนของมูลค่าทรัพย์สิน และการนำ custom silicon มาใช้
  • เช่นเดียวกับกรณีของ Lucent หากเกิดการประเมินมูลค่าทรัพย์สินสูงเกินจริง หนี้เสีย หรือความโปร่งใสทางบัญชีลดลง ความเสี่ยงอาจกลายเป็นจริงอย่างรวดเร็ว จึงต้องติดตามตัวชี้วัดสำคัญและแนวโน้มตลาดอย่างเข้มงวด

ภาคผนวก: การทุจริตทางบัญชีของ Lucent และวิกฤตการเงินแบบวนลูป

  • Lucent ถูก SEC สอบสวนจากการทุจริตทางบัญชีในปี 2000 (ปั่นรายได้ 1.15 พันล้านดอลลาร์ และกำไรก่อนภาษี 470 ล้านดอลลาร์)
    • ‘channel stuffing’: ส่งสินค้าที่ยังขายไม่ออกไปยังตัวแทนจำหน่ายล่วงหน้า แล้วบันทึกเป็นรายได้ทันที
    • ‘side agreement’: รับรู้รายได้ทั้งที่มีการให้สิทธิคืนสินค้าหรือสิทธิพิเศษเพิ่มเติมนอกเหนือจากสัญญาจัดจำหน่าย
    • ‘การปั่นสำรอง’: ตั้งและกลับรายการสำรองผลขาดทุนเกินจริงเพื่อลดความผันผวนของผลประกอบการ
  • Lucent ถูกปรับ 250 ล้านดอลลาร์ และผู้บริหาร 10 คนถูกฟ้อง
  • ตัวอย่างสำคัญคือ หลังให้ financing มูลค่า 2 พันล้านดอลลาร์แก่ WinStar แล้ว WinStar ล้มละลาย Lucent ต้องบันทึกขาดทุน 700 ล้านดอลลาร์
  • รูปแบบเช่นนี้ทำให้ในช่วงปี 2001~2002 ต้องตั้งสำรองหนี้สูญ 3.5 พันล้านดอลลาร์ เป็นตัวอย่างชัดเจนของการปรากฏขึ้นของความเสี่ยงหนี้เสียจริง

1 ความคิดเห็น

 
GN⁺ 2025-10-06
ความเห็นจาก Hacker News
  • ผมเคยทำงานที่ ISP ขนาดเล็กในละแวกบ้านช่วงยุค 90 ตอนนั้น Lucent ล้ำหน้าที่สุดในด้านอุปกรณ์อินเทอร์เน็ต เราใช้ Portmaster 3 จัดการการเชื่อมต่อแบบ dial-up และยังเคยมองเทคโนโลยีไร้สายยุคแรกของ Lucent ด้วย
    กฎหมาย Telecommunications Act 1996 บังคับให้บริษัทโทรคมนาคมต้องให้ผู้อื่นเช่าโครงสร้างพื้นฐานได้ ส่งผลให้ค่าเช่า T1 ของ ISP ลดลงมาก (T1 ลดจาก 1,800 ดอลลาร์ต่อเดือนในปี 96 เหลือ 600 ดอลลาร์ในปี 99) จากนั้นบริษัทโทรคมนาคมก็ฟ้อง FCC และภายในปี 2003 กฎหมายนี้ก็แทบหมดฤทธิ์ไป
    คำอธิบายในวิกิเกี่ยวกับผู้ให้บริการแลกเปลี่ยนท้องถิ่นแบบแข่งขัน

    • ราคาต่างกันมากตามแต่ละพื้นที่ ISP เล็กที่ผมทำงานอยู่จ่ายค่า T1 จาก 1,500 ดอลลาร์ต่อเดือนลงมาเหลือ 500 ดอลลาร์ แล้ว T1 loop ไปถึงลูกค้าก็เหลือ 100 ดอลลาร์ต่อเดือน ส่วนวงแหวน OC12 SONET ที่ backhaul ทราฟฟิกทั้งเส้นกลับดาต้าเซ็นเตอร์นั้นเสียค่าใช้จ่ายหลักพันดอลลาร์
      ต้นเหตุสำคัญของความผันผวนด้านราคาทั้งหมดนี้คือข้อบังคับในกฎหมายโทรคมนาคมที่ให้ ILEC ต้องขายการเข้าถึงอุปกรณ์เครือข่ายแบบแยกส่วน
      CLEC (ผู้ให้บริการคู่แข่ง) ส่วนใหญ่ก็ยังใช้โครงข่ายกายภาพของ ILEC ในพื้นที่อยู่ดี จึงเกิดการเปลี่ยนแปลงเชิงโครงสร้างอย่างมาก
      เรื่องน่าสนใจคือช่วงปลายยุค 90 ตอน dial-up ยังครองตลาดนั้น voice T1 PRI (250 ดอลลาร์ต่อเดือน) กลับถูกกว่า data T1 (500 ดอลลาร์ต่อเดือน) จึงถูกนำมาใช้กันมาก
      แม้หลังจากกฎหมายนี้หมดฤทธิ์ ILEC ก็ยังขายบริการ wholesale/unbundled ต่อไป ดูเหมือนจะรู้แล้วว่าธุรกิจนี้ทำกำไรดีมาก

    • ผมเคยทำงานที่สตาร์ทอัพช่วงบูมของโทรคมนาคม
      ตอนนั้นบริษัทอย่าง Cisco ถึงขั้นซื้อสตาร์ทอัพที่ยังไม่มีสินค้า IPO คือทางออกเดียว และวิศวกรก็ถูกล็อกอัพ 6 เดือน
      คนที่โชคดีหน่อยก็ออกได้ทันผ่าน IPO หรือการขายกิจการก่อนราคาจะดิ่ง พอฟองสบู่แตก เงินทุนก็แห้งเหือดและสตาร์ทอัพแทบทั้งหมดก็ล้มไป
      หลังซบเซาอยู่นานหลายปี บริษัท IT รุ่นใหม่ถึงเริ่มก่อตัวขึ้นอีกครั้ง

    • ฟังดูน่าสนใจมากว่ากฎระเบียบแค่ 4 ปีเปลี่ยนดุลอำนาจระหว่างยักษ์ใหญ่โทรคมนาคมกับ ISP รายเล็กได้จริงหรือไม่
      คำอธิบายว่ากฎเฉพาะบางอย่างเป็นตัวจุดชนวนการเติบโตของอินเทอร์เน็ตนั้นขัดกับคำทำนายเดิมที่บอกว่าถ้าไม่ยกเลิกการกำกับดูแลทุกอย่างจะพัง
      ผมเพิ่งเคยได้ยินครั้งแรกว่ากฎหมายที่ใช้เพียงช่วงสั้น ๆ ก็เพียงพอแล้ว

    • การฆ่าการแข่งขันในธุรกิจโทรคมนาคมและการปล่อยให้เกิดการผูกขาดเป็นปัญหาใหญ่ของระบบยุติธรรม
      ตัวบทกฎหมายชัดเจน แต่ศาลกลับเพิกเฉยต่อเจตนารมณ์นิติบัญญัติแทบทั้งหมดด้วยเหตุผลว่า "การวางใยแก้วนำแสงมันแพง"
      ถ้าพูดเรื่องราคา แม้สายวงจรอย่าง T1 หรือ OCx จะยังถูกใช้อยู่มาก แต่ช่วงปี 96-99 DSL ก็เริ่มมาและช่วยกดราคาลงอย่างแรง

    • การเปลี่ยนแปลงทางกฎหมายอาจมีผลต่อจังหวะของสงครามราคาและฟองสบู่โทรคมนาคม
      แต่สงครามราคานั้นเองก็หลีกเลี่ยงไม่ได้อยู่แล้ว และฟองสบู่ก็น่าจะเกิดขึ้นสูงมาก
      การลงทุนในโครงสร้างพื้นฐานโทรคมนาคมเป็นปฏิกิริยาต่อราคาหุ้นดอตคอมที่พุ่งแบบบ้าคลั่ง

  • เครือข่ายใยแก้วถูกใช้งานไม่ถึง 0.002% ของความจุสูงสุด และยังมีช่องให้เพิ่มความเร็วได้ถึง 60,000 เท่า มันแค่เร็วเกินยุคไป
    ผมไม่คิดว่า GPU จะเหลือเฟือแบบนั้น
    ถ้าเราใช้งานได้ในลักษณะว่า "ช่วยครุ่นคิดเรื่อง codebase ทั้งคืน หาแนวทาง refactor ที่ดีกว่า แล้วพรุ่งนี้ค่อยมานำเสนอ" ปริมาณการใช้ GPU จะสูงกว่าตอนนี้มาก
    ถ้า GPU 1 นาทีราคา 0.1 ดอลลาร์ ปล่อยรันทั้งคืนก็ 48 ดอลลาร์ ซึ่งดูคุ้มค่ามากทีเดียว (ไม่ว่าจะเป็นการปรับปรุงโค้ด ออกแบบรถ ปกหนัง แผนธุรกิจ หรืออะไรก็ตาม)

    • ผมก็ไม่คิดว่า GPU จะไม่มีวันเหลือใช้ แต่กลับคิดว่าสุดท้ายมันต้องเหลือแน่
      บริษัทต่าง ๆ ซื้อ GPU ที่ไหลทะลักออกมาโดยสมมุติว่าความต้องการไม่มีที่สิ้นสุด
      ขณะเดียวกันความเหนื่อยล้าจาก LLM ก็เริ่มมา โมเดลก็เล็กลงเรื่อย ๆ และฮาร์ดแวร์ฝั่งผู้บริโภคก็ดีขึ้น
      สุดท้ายมันก็ต้องมี GPU ว่างจำนวนมาก

    • ประเด็นที่ว่าการปรับปรุงโค้ดต้องใช้ GPU นั้นยังเล็กมาก
      อีกไม่นาน generative AI จะถูกใช้สร้างภาพยนตร์ระดับความละเอียดสูงมาก หรือแม้แต่ HDR และ 120 เฟรม
      งานแบบนี้มีต้นทุน 100-1000 ดอลลาร์ต่อนาที และต้องใช้ GPU มหาศาล
      กองทัพสหรัฐก็มีแผนใช้ generative AI เพื่อการจำลองภาพสนามรบแล้ว ซึ่งต้องใช้การประมวลผลหนาแน่นยิ่งกว่าวิดีโอความละเอียดสูงอีก

    • แนวคิดว่า AI สามารถ “ปรับปรุง” codebase ได้ก็น่าสนใจดี
      แต่ผมยังไม่เคยเห็นมันทำได้ถึงขั้นปรับปรุงในโลกจริง เลยคงต้องเห็นกับตาก่อนถึงจะเชื่อ

    • เมื่ออัลกอริทึมและเทคนิคพัฒนาดีขึ้น ฮาร์ดแวร์รุ่นเก่าก็อาจยังมีประโยชน์อยู่

    • จินตนาการแบบ "ลองคิดเรื่อง codebase ทั้งคืน..." นั้นตั้งอยู่บนสมมุติฐานที่ผิดมาตั้งแต่ต้น
      LLM ปัจจุบันยังแก้ปัญหาจริงจังด้วยตัวเองแบบอิสระไม่ได้
      หลายคนหวังว่าวันหนึ่งมันอาจทำได้ แต่ผมมองว่าตอนนี้เราใกล้เพดานความสามารถของ LLM แล้ว
      ฟองสบู่ AI รอบล่าสุดคือผลของการตีความช่วงต้นของ S-curve ทางเทคโนโลยีเกินจริง
      ณ วันนี้ มันยังไม่พอ

  • ประวัติศาสตร์ของฟองสบู่ในอดีตพอใช้เป็นข้อมูลอ้างอิงได้บ้าง แต่ไม่ได้มีนัยสำคัญมากนัก
    ไม่ว่าจะฟองสบู่ดอตคอม ฟองสบู่รถไฟ หรืออะไร ทุกครั้งมันต่างกัน
    แก่นแท้คือความสามารถในการทำธุรกิจและ ROI (ผลตอบแทนจากการลงทุน)
    ต่อให้กระแสเงินสดดูดี ถ้าผลตอบแทนทางเศรษฐกิจไม่ได้ยอดเยี่ยมเป็นประวัติการณ์ สุดท้ายก็เสี่ยงพังอยู่ดี
    ทุกคนกำลังไล่ล่าห่านที่ออกไข่ทองคำ

    • จากที่ Bezos พูดถึงแผนสร้างดาต้าเซ็นเตอร์ขนาดเกิน 10GW ในอวกาศ มันทำให้ผมคิดว่านี่อาจไม่ได้มุ่งเรื่อง ROI มากนัก แต่อาจมุ่งไปที่โครงสร้างอำนาจในอนาคต คือการสร้างโลกที่มหาเศรษฐีไม่ต้องพึ่งแรงงานอีกต่อไป
      ความเห็น HN ที่เกี่ยวข้อง
      บทความเรื่อง Bezos พูดถึงดาต้าเซ็นเตอร์ในอวกาศ

    • ถ้ายึดติดกับกลไกในอดีตมากเกินไป เราจะจำกัดพื้นที่ของความเป็นไปได้ในอนาคตมากเกินจำเป็น
      เพราะแม้แต่ฟองสบู่ดอตคอมเองก็เป็นเพียงหนึ่งใน “เส้นทางที่เป็นไปได้” จำนวนมาก
      ถ้ามองแบบเดียวกัน เราก็อาจพลาดวิธีที่ฟองสบู่ครั้งหน้าจะเกิดขึ้นจริง

    • มีความกังวลว่าความต่างด้านการบันทึกบัญชีระหว่าง Lucent กับ Nvidia, Microsoft, OpenAI, Google แท้จริงอาจเป็นเพียงการพัฒนาไปสู่ "การโกหกที่แนบเนียนกว่าเดิมและการทำให้ดูเกินจริงกว่าความจริง"
      กว่าฟองสบู่จะแตก ตัวเลขจริงถึงจะโผล่ออกมา

    • รอบนี้ต่างจากอดีตเพราะยังมีเงิน fiat และแรงหนุนจากรัฐบาลอยู่เบื้องหลังด้วย

  • ผมอยู่ท่ามกลางการล่มสลายของดอตคอมและโทรคมนาคม โดยเฉพาะฝั่งโทรคมนาคมหนักกว่ามาก
    ใยแก้วนำแสงไม่ขึ้นสนิม แต่มีการติดตั้งเกินมหาศาล และอีก 10 ปีต่อมา ด้วยเทคโนโลยี DWDM เราใช้จริงแค่ 2 เส้นจากทั้งหมด 8 เส้น (เพราะใช้ความยาวคลื่นได้หลากหลายกว่ามาก)
    เลยสงสัยว่ามูลค่ามือสองของ GPU ในอีก 10 ปีจะเป็นเท่าไร และจะมี “ทางออกแบบ DWDM” สำหรับ GPU ที่ลงทุนเกินไปหรือไม่
    ตอนนี้เราอยู่ในช่วงเวลาที่น่าสนใจมากจริง ๆ

  • ปัญหาใหญ่ที่สุดของ Nvidia คือรายได้ของบริษัทไม่ได้มีความถาวร แต่ตลาดกลับประเมินเหมือนเป็น recurring revenue ทั้งที่จริงแล้วมันคือการลงทุน CAPEX ที่อยู่ได้แค่ราว 1-2 ปี
    ผมมองแบบง่าย ๆ ว่าโครงสร้างนี้ไม่มีทางอยู่ต่อไปได้เรื่อย ๆ

    • ราคาหุ้น NVDA ก็ไม่ได้แพงสุดโต่งอะไร แค่ EPS 25 เท่า
      รายได้กำลังโตเร็ว และเรากำลังอยู่หน้าการเปลี่ยนผ่านทางเทคโนโลยีที่สำคัญที่สุดในประวัติศาสตร์
      ตลาดเองก็สะท้อนการชะลอตัวของการเติบโตเข้าไปในราคาแล้วบางส่วน

    • บริษัทอย่าง Zoom หรือ Peloton ที่โดดเด่นช่วงโควิดก็คล้ายกัน คือคนในตลาดสมมุติว่าอนาคตแบบนั้นจะยืดต่อไปเรื่อย ๆ
      โครงสร้างตลาดมักวนซ้ำรูปแบบนี้ตลอด ช่วงหลัง ๆ ก็มี 3D printing กับเนื้อทางเลือกเช่นกัน
      การลงทุนใน OpenAI อาจตีความได้ว่าเป็น hedge ต่อการชะลอตัวของ CAPEX

    • Nvidia แค่ประกาศขายเมื่อไร การ์ดจอก็หมดทันที
      มาร์จิ้นสูงมาก แต่ก็ยังผลิตไม่ทันความต้องการ

    • สุดท้ายแล้วมันก็เป็นตรรกะเศรษฐศาสตร์ล้วน ๆ
      ถ้าดีมานด์สะดุดแค่ครั้งเดียว GPU มือสองจะทะลักออกมา และก็ไม่จำเป็นต้องซื้อของใหม่อีก
      พอถึงตอนนั้น Nvidia จะรักษาระดับรายได้ปัจจุบันไว้ไม่ได้แน่

    • TSLA ก็เหมือนกัน
      ตลาดหุ้นแทบจะเป็นธนาคารสำหรับคนรวย และถูกห่อหุ้มด้วยการปล่อยกู้กับเครดิต
      ของจริงมันก็เป็นฟองสบู่ แต่เป็นโลกที่คนรวยเท่านั้นที่สนใจ
      คนธรรมดาอย่างพวกเราก็เป็นแค่นักลงทุนรายย่อยเท่านั้น

  • ตอนที่ผมทำงานอยู่กับ "ที่สุดของบริษัทโทรคมนาคม" พวกเราเพิ่งมาเปิดใช้งาน dark fiber ในอีก 15 ปีให้หลัง (ปี 2015) เพราะความต้องการข้อมูลมือถือ
    ขนาดของการติดตั้งเกินนั้นมหาศาลจริง ๆ
    สายใยแก้วนำแสงมีประโยชน์เสมอ แต่ผมไม่แน่ใจว่า GPU จะอยู่ได้นานแบบนั้นหรือเปล่า
    พูดจากประสบการณ์ส่วนตัวล้วน ๆ

    • ใยแก้วนำแสงรุ่นใหม่แทบไม่ได้มีประสิทธิภาพพลังงานดีขึ้นเลย
      แต่ประสิทธิภาพของรถแบ็กโฮที่ใช้ขุดดินก็ไม่ได้ดีขึ้นเช่นกัน

    • สำหรับคำถามว่า "การ์ดพวกนี้จะใช้ได้นานไหม" ในตัวอย่างที่ยกในบทความบอกว่าเพราะความเค้นสูง อายุใช้งานอาจมีแค่ 1-2 ปี

    • ในปี 2005 โทรคมนาคมยังเป็นธุรกิจทำเงินสดมหาศาลจากค่าบริการโทรทางไกล และถ้ามีสวิตช์แบบกลไกที่ตัดค่าเสื่อมหมดแล้วก็แทบพิมพ์เงินได้เลย (เพราะกฎระเบียบการันตีกำไร)
      แต่โครงสร้างนั้นก็อยู่ได้ไม่นาน หลายพื้นที่จึงเริ่มขยายไปสู่บริการ managed service ที่เป็น "รายได้ไม่ถูกกำกับ" (เช่นโซลูชันแบบ DataDog)
      ธรรมชาติของธุรกิจคือความมองโลกในแง่ดีแบบไร้เหตุผลสามารถทำลายบริษัทได้ทุกเมื่อ

    • ตัวชิปเองอาจอายุไม่ยืน แต่ R&D ที่ใส่เข้าไปในนั้นยังมีคุณค่าอยู่
      ปัญหาคือจะกู้คุณค่านั้นกลับมาได้มากแค่ไหน

    • ผมมองว่าดาต้าเซ็นเตอร์ความหนาแน่นสูงที่กำลังก่อสร้างเพื่อรองรับ hyperscaler ก็คล้ายกับการติดตั้ง dark fiber เกินความต้องการนั่นแหละ
      ตอนที่เปิดใช้งานเส้นใยในปี 2015 ก็คงไม่ได้ใช้ line card ที่ซื้อไว้ตั้งแต่ปี 1998 ตรง ๆ หรอก

  • โดยพื้นฐานแล้วผมคิดว่าประเด็นใหญ่สุดคือความไม่แน่นอนของการบรรลุ AGI (ปัญญาประดิษฐ์ทั่วไป)
    ตอนนี้เงินลงทุนระดับ topline 90% เทไปบนสมมุติฐานว่าจะไปถึงภายใน 2-5 ปี
    ถ้ามันมาไม่เร็วพอ ก็เสี่ยงมากที่ความสนใจของนักลงทุนจะหายวับ
    ตอนนี้ยังคงประคองความตื่นเต้นไว้ได้ด้วยการเติบโตของ benchmark แต่ผมคาดว่าอีก 6-12 เดือน milestone ใหม่ ๆ ก็จะเริ่มตัน
    ขั้นต่อไปจริง ๆ คือต้องแสดงผลลัพธ์จริงในงานอย่างการพัฒนาซอฟต์แวร์ การวิจัยมะเร็ง หรือหุ่นยนต์
    ในโครงสร้างปัจจุบัน ผมมองว่ายาก

    • ผมคิดว่า AGI ยังอีกไกล
      โอกาสที่ใหญ่ที่สุดน่าจะอยู่ในโดเมนอย่างกฎหมายและการแพทย์ ที่มีฐานความรู้มหาศาลจนคนต้องเรียนถึงระดับบัณฑิตศึกษาเพื่อเชี่ยวชาญ
      โดยเฉพาะการเขียนโค้ดน่าจะได้ประโยชน์จาก LLM มากขึ้น
      ปัญหาคือเมื่อ backlog งานน่าปวดหัวอย่างการ refactor โค้ดเก่าถูกจัดการไปหมดแล้ว การสร้างโค้ดใหม่เพียงอย่างเดียวไม่มีทางรักษาฟองสบู่ความต้องการฮาร์ดแวร์ระดับปัจจุบันไว้ได้

    • แม้แต่ hyperscaler เองก็ยังใช้เงินลงทุน AI (CAPEX) ไม่ถึงครึ่งของกระแสเงินสดจากการดำเนินงาน
      ถ้ากำลังเดิมพันกับการไปถึง AGI จริง ขนาดการลงทุนคงใหญ่กว่านี้มาก

    • “ความสงสัยของคุณตอนนี้อาจไม่มีมูลพอ ๆ กับคำพูดเมื่อ 5 ปีก่อนที่ว่า ‘เครื่องจักรที่คิดได้เป็นไปไม่ได้’ ก็ได้ เพราะตอนนี้ LLM ก็เกิดขึ้นแล้ว”

    • ไม่เข้าใจว่าทำไมคนถึงกดโหวตลบ
      แค่คุยกับนักวิจัย AI ก็จะเห็นว่าพวกเขามีความคาดหวังที่สมจริง
      แต่ยิ่งเป็นฝั่งธุรกิจที่ไม่เข้าใจเทคโนโลยี ก็ยิ่งมีความคาดหวังเกินจริงมาก
      ถึงขั้นคิดว่า "จ่ายเดือนละ 20 ดอลลาร์ให้ ChatGPT แล้วมันจะทำงานทั้งหมดให้ได้" แล้วก็เริ่มลดคน ปรับงบ ปรับแผน และปรับการจ้างงานกันไปแล้ว
      พออีก 1 ปีแล้วเห็นชัดว่าไม่ได้ผล ทัศนคติต่อ AI ก็จะเหวี่ยงกลับทันที (โกรธ หลีกเลี่ยง ไม่ไว้ใจผลิตภัณฑ์ใหม่ ฯลฯ)
      เมื่อความล้มเหลวสะสม อัตราการเติบโตก็จะช้าลง แล้วความกังวลของนักลงทุน ราคาหุ้นร่วง และมูลค่าประเมินลดลงก็จะตามมา

  • สิ่งที่ผมไม่เข้าใจคือความมองโลกในแง่ดีที่ว่าความต้องการ GPU สำหรับ “การฝึก” จะยังเติบโตสูงต่อไปแบบทุกวันนี้
    ผมเข้าใจความต้องการด้าน inference แต่ตอนนี้ก็มีโมเดลฟรีที่ดีมากอยู่แล้ว และยังรันได้ดีบนอุปกรณ์ผู้บริโภคอย่าง Apple M4 หรือ AMD Max APU
    ในสถานการณ์แบบนี้ ผมสงสัยจริง ๆ ว่าความต้องการลงทุน GPU เพิ่มยังเหลืออีกมากแค่ไหน

    • ผมคิดว่า Reinforcement Learning (การเรียนรู้แบบเสริมกำลัง) จะเป็นสมรภูมิ GPU แห่งใหม่
      เช่น การเปลี่ยนแปลงของ o1, o3, GPT-5, Sonnet 3.7, 4, 4.5
      เมื่อทุกคนสามารถทำ inference ด้วย B200 ได้ โมเดลอาจกลับมาใหญ่ขึ้นอีก แต่ตอนนี้ความกระหาย GPU หนักสุดอยู่ที่งบฝึก RL

    • แต่ก็มีคนเถียงว่าปลายทางสุดท้ายมันคือการแข่งขันไม่รู้จบเพื่อรัน GPU ให้มากขึ้น แล้วขยับเข้าใกล้ AGI ไปอีกก้าวไม่ใช่หรือ

    • มีการคาดกันว่าโครงสร้างแบบ Continuous Learning จะเป็นตัวกระตุ้นความต้องการ GPU ตัวถัดไป

    • สุดท้ายแล้ว inference น่าจะไปอยู่บนคลาวด์แบบแชร์ทรัพยากรร่วมกัน เพราะต้นทุนต่ำที่สุด
      กรณีใช้งาน B2B ส่วนใหญ่น่าจะย้ายไปพึ่งดาต้าเซ็นเตอร์อย่าง AWS
      มีเพียงกรณีพิเศษ (เช่น CERN หรือ Apple Siri) ที่อาจใช้ฮาร์ดแวร์เฉพาะอย่าง FPGA หรือ ASIC กินไฟต่ำ แต่ที่เหลือมาตรฐานจะค่อย ๆ กลายเป็น “อยู่บนคลาวด์”

  • ตอนฟองสบู่ดอตคอม โฆษณาสร้างผลแบบวงจรหมุนเวียน
    VC ใส่เงินให้สตาร์ทอัพ แล้วสตาร์ทอัพก็เอาเงินนั้นไปซื้อโฆษณากับ Yahoo เป็นต้น
    รายได้ของ Yahoo พุ่ง หุ้นขึ้น และสิ่งนี้ก็ถูกมองเป็นสัญญาณว่าอินเทอร์เน็ตทำเงินได้ ทำให้ตลาด IPO ของสตาร์ทอัพรายอื่นยิ่งคึกคัก
    ยิ่งเงินหมุนมาก วงจร โฆษณา→รายได้→มูลค่าตลาด→เงิน VC เพิ่ม→โฆษณาเพิ่ม ก็ยิ่งดำเนินต่อไป

  • ในเอกสารอ้างอิงข้อ 14 มีการบอกว่า OpenAI จะไม่ได้ซื้อ GPU ของ Nvidia แบบจ่ายครั้งเดียว แต่จะเช่าใช้แทน
    ดังนั้นผมเลยไม่ค่อยเข้าใจว่าทำไม Nvidia ถึงเรียกสิ่งนี้ว่า "ลงทุนตรงนี้"
    ถ้าเป็นการเช่า ก็แค่รับค่าเช่าไม่ใช่หรือ แล้วมันนับเป็นการลงทุนตรงไหน? Nvidia ลงทุนอะไร?

    • ตอนที่ Nvidia ผลิตและส่งมอบ GPU ในช่วงแรก บริษัทต้องลงเงินล่วงหน้าก่อน และถ้าการจัดสรรสินทรัพย์นี้ปิดบัญชีไม่ได้ตามแผน (เช่น ลูกค้าล้มละลาย) Nvidia ก็ต้องรับความเสี่ยง
      บริษัทรับความเสี่ยงนั้นเพื่อหวังผลตอบแทนเพิ่ม ดังนั้นโครงสร้างนี้จึงมีลักษณะของการลงทุนอยู่

    • ผมไม่ใช่นักบัญชี แต่ผมคิดว่าพอหมดสัญญาเช่า Nvidia ก็คงเหลือเพียงสินทรัพย์ราคาต่ำที่ถูกหักค่าเสื่อมไปแล้วในมือ
      ต่างจากตลาดรถเช่า ตลาด GPU มือสองคงไม่ได้ใหญ่ขนาดนั้น
      พูดอีกแบบคือ Nvidia กำลังให้ GPU แบบ "ผ่อนจ่าย" โดยไม่ได้รับเงินเต็มจำนวนล่วงหน้า
      ผมสงสัยว่าค่าเช่ารวมทั้งหมดจะเท่ากับต้นทุนหรือไม่