การเงินแบบวนลูป: เดิมพัน 1.1 แสนล้านดอลลาร์ของ Nvidia ชวนให้นึกถึงฟองสบู่โทรคมหรือไม่?
(tomtunguz.com)- ขณะที่ Nvidia อัดฉีดเงินมหาศาลเข้าสู่โครงสร้างพื้นฐาน AI เช่น OpenAI ผ่านการลงทุนมูลค่า 1.1 แสนล้านดอลลาร์ ก็เริ่มมีการถกเถียงถึงความกังวลว่าโครงสร้างการจัดหาเงินทุนแบบเวนเดอร์ที่เป็นวงจรลักษณะนี้กำลังหวนกลับมา คล้ายกับช่วงฟองสบู่โทรคมในอดีต
- ในปี 2025 บริษัท IT ชั้นนำของสหรัฐประกาศแผนลงทุนในโครงสร้างพื้นฐาน AI มูลค่า300,000~400,000 ล้านดอลลาร์ ทำให้ความเสี่ยงอย่างการกระจุกตัวของฐานลูกค้าและสินเชื่อที่ใช้ GPU เป็นหลักประกันขยายตัวมากขึ้น
- แม้ Nvidia จะแตกต่างจาก Lucent ที่เคยล้มเหลวในด้านกระแสเงินสด ความน่าเชื่อถือของลูกค้า และความโปร่งใสทางบัญชี แต่ประเด็นอย่างการพึ่งพาลูกค้ารายใหญ่ มูลค่าทรัพย์สิน และการขยายตัวของ custom siliconยังถูกชี้ว่าเป็นปัจจัยที่ต้องระวัง
- มีการเน้นย้ำถึงความจำเป็นในการติดตามอย่างต่อเนื่องว่าอุปสงค์ AI เป็นอุปสงค์จริงหรือไม่ จะกลายเป็นโครงสร้างพื้นฐานจำเป็นเหมือนคลาวด์ หรือเป็นเพียงฟองสบู่เท่านั้น
- เพื่อไม่ให้ความเสี่ยงเชิงโครงสร้างในอดีตซ้ำรอยเหมือนกรณีทุจริตทางบัญชีของ Lucent จึงต้องจับตาอย่างใกล้ชิดทั้งมูลค่าทรัพย์สิน โมเดลรายได้ และความเสี่ยงด้านหนี้ของ Nvidia และอุตสาหกรรมโดยรวม
บทนำ: Nvidia, การเงินแบบวนลูป และเงาของฟองสบู่โทรคม
- ในปี 2025 Nvidia ดำเนินvendor financing มูลค่า 1.1 แสนล้านดอลลาร์ให้กับ OpenAI และรายอื่น ๆ ทำให้ความคล้ายคลึงกับโครงสร้างการเงินแบบวนลูปขนาดใหญ่ในยุคฟองสบู่โทรคมถูกพูดถึงมากขึ้น
- บรรดา Big Tech ของสหรัฐประกาศแผนลงทุนโครงสร้างพื้นฐาน AI มูลค่า300,000~400,000 ล้านดอลลาร์ในปี 2025
- ขนาดการลงทุนนี้สูงกว่าสถิติการลงทุนโครงสร้างพื้นฐานของบริษัทในปีเดียวที่เคยมีมาอย่างมาก
ยุทธศาสตร์ของ Lucent: บทเรียนจากการเงินแบบวนลูป
- ในปี 1999 Lucent Technologies ทำรายได้ 3.79 หมื่นล้านดอลลาร์ที่จุดสูงสุดของฟองสบู่ดอตคอม ก่อนจะร่วงลง 69% ภายในเวลาเพียง 3 ปี และสุดท้ายเดินหน้าไปสู่การควบรวมกับ Alcatel
- ในเวลานั้น ผู้ผลิตอุปกรณ์อย่าง Lucent, Nortel และ Cisco ใช้vendor financing มูลค่าหลายพันล้านดอลลาร์เพื่อให้เงินลูกค้าซึ่งเป็นบริษัทโทรคมโดยตรงสำหรับซื้ออุปกรณ์
- Lucent 8.1 พันล้านดอลลาร์, Nortel 3.1 พันล้านดอลลาร์, Cisco 2.4 พันล้านดอลลาร์ในภาระผูกพันด้านเงินกู้
- ในช่วงแรก กลยุทธ์นี้ดูเหมือนจะเป็นประโยชน์กับทุกฝ่าย แต่เมื่อเกิดภาวะตลาดอิ่มตัวและสภาพคล่องตึงตัว ลูกค้าส่วนใหญ่ (CLEC 47 ราย) ล้มละลาย เงินกู้ 33~80% เรียกคืนไม่ได้ และมูลค่าอุปกรณ์ทรุดฮวบ กลายเป็นผลลัพธ์ที่ร้ายแรง
- ในความเป็นจริง เครือข่ายใยแก้วนำแสงถูกใช้งานเพียง 0.002% ของความจุที่มีอยู่ แสดงให้เห็นว่าจังหวะการลงทุนเร็วกว่าความต้องการจริงมาก
ยุทธศาสตร์ของ Nvidia: โครงสร้างการเงินแบบวนลูปที่แตกต่าง
- ณ ปี 2025 Nvidia บริหารการลงทุนโดยตรง 1.1 แสนล้านดอลลาร์ (85% ของรายได้) และสินเชื่อที่ใช้ GPU เป็นหลักประกันมากกว่า 1.5 หมื่นล้านดอลลาร์
- กับ OpenAI มีข้อตกลงเฉพาะมูลค่า 1 แสนล้านดอลลาร์ (แบ่งจ่าย 10 tranche, จ่ายตามแต่ละขั้นของการสร้างโครงสร้างพื้นฐาน, กระแสเงินจริงไหลเข้าในรูปแบบการเช่า GPU)
- ยังมีการลงทุนเพิ่มเติมใน CoreWeave, NVentures และการขยายตัวของตลาดสินเชื่อที่ใช้ GPU เป็นหลักประกัน
- ในกรณีของ CoreWeave บริษัทมีหนี้ที่ใช้ GPU เป็นหลักประกันอยู่ 1.045 หมื่นล้านดอลลาร์ และสตาร์ตอัป AI รายอื่นอย่าง Lambda Labs ก็ใช้ GPU เป็นหลักประกันเงินกู้เช่นกัน
เปรียบเทียบตัวเลข: Lucent vs Nvidia (แปลงเป็นดอลลาร์ปี 2024)
| รายการ | Lucent (2000) | Nvidia (2025) |
|---|---|---|
| Vendor financing | 1.5 หมื่นล้านดอลลาร์ | 1.1 แสนล้านดอลลาร์ |
| กระแสเงินสดจากการดำเนินงาน | 300 ล้านดอลลาร์ | 1.54 หมื่นล้านดอลลาร์ (ไตรมาส 2 ปีงบประมาณ 22) |
| รายได้ต่อปี | 3.4 หมื่นล้านดอลลาร์ | 1.3 แสนล้านดอลลาร์ |
| สัดส่วนลูกค้า 2 อันดับแรก | 23% | 39% |
จุดที่ต้องระวัง: โครงสร้างความเสี่ยงทางตลาดรูปแบบใหม่
1. ฐานลูกค้า AI ที่กระจุกตัวมากขึ้น
- รายได้ของ Nvidia กระจุกตัวอยู่กับลูกค้า 2~4 รายแรกถึง 46% สูงกว่าระดับของ Lucent ถึง 2 เท่า
- รายได้ 88% มาจากดาต้าเซ็นเตอร์
2. การขยายตัวของสินเชื่อที่ใช้ GPU เป็นหลักประกันและความเสี่ยงด้านสต็อก
- GPU ถูกนำไปใช้กับเงินกู้อัตราดอกเบี้ยสูง 14% โดยตั้งอยู่บนสมมติฐานว่ามูลค่าจะคงอยู่ได้ 4~6 ปี (ราว 3 เท่าของหุ้นกู้บริษัทระดับ investment grade)
- แต่พบว่าอายุการใช้งานจริงของ GPU ในภาคใช้งานอยู่เพียง 1~3 ปี (จากกรณีจริงของผู้ออกแบบที่ Google และ Meta)
| บริษัท | ก่อนปี 2020 | 2020 | 2022~2023 | 2024~2025 | การเปลี่ยนแปลง |
|---|---|---|---|---|---|
| Amazon | 3 ปี | 4→5 ปี | 5 ปี | 6→5 ปี | ลดลงเป็นครั้งแรก |
| Microsoft | ราว 3 ปี | 4 ปี | 6 ปี | 6 ปี | +100% |
| ราว 3 ปี | 4 ปี | 6 ปี | 6 ปี | +100% | |
| Meta | ราว 3 ปี | 4 ปี | 4.5→5 ปี | 5.5 ปี | +83% |
| CoreWeave | N/A | N/A | 4→6 ปี | 6 ปี | +50% (GPU) |
| Nebius | N/A | N/A | 4 ปี | 4 ปี | มาตรฐานอุตสาหกรรม |
-
ในปี 2025 Amazon ปรับระยะเวลาค่าเสื่อมกลับจาก 6 ปีเป็น 5 ปี กลายเป็นรายแรกที่ใช้นโยบายบัญชีแบบอนุรักษ์นิยมมากขึ้น
-
โดยทั่วไป CPU มักใช้งานได้ 5~10 ปี แต่ GPU ในดาต้าเซ็นเตอร์ AI มักถูกเปลี่ยนภายใน 1~3 ปีในการใช้งานจริง (Meta Llama 3: อัตราเสีย 9% ต่อปี → คาดเสียสะสม 27% ใน 3 ปี)
-
สถาบันการเงินหลักบางแห่ง (เช่น Cerno Capital) ตั้งคำถามว่า “นโยบายค่าเสื่อมเหล่านี้สะท้อนความเป็นจริงทางเศรษฐกิจและเทคโนโลยีอย่างแท้จริงหรือไม่ หรือเป็นเพียงกลยุทธ์ ‘ภาพลวงตา’ เพื่อเบี่ยงความสนใจนักลงทุน”
4. การใช้โครงสร้าง SPV (บริษัทเฉพาะกิจ)
-
บริษัทเทคโนโลยีขนาดใหญ่ระดมทุนก่อสร้างดาต้าเซ็นเตอร์ผ่านการร่วมลงทุนแบบ SPVกับกองทุนเอกชนอย่าง Apollo
- SPV เป็นผู้ถือครองและดำเนินงานดาต้าเซ็นเตอร์ แล้วปล่อยเช่าระยะยาวให้บริษัทเทคโนโลยี
- หนี้ของ SPV ไม่ถูกบันทึกในงบการเงินของบริษัทเทคโนโลยี (off-balance sheet)
- โดยทั่วไปมีโครงสร้างทุน 10~30% และหนี้ 70~90%
-
โครงสร้างลักษณะนี้มีข้อดี เช่น ปกป้องอันดับความน่าเชื่อถือและลดการเปิดเผยภาระการลงทุน แต่หากอัตราการใช้งานดาต้าเซ็นเตอร์ลดลงหรือมูลค่า GPU ร่วง ผู้ถือชั้นทุนที่บางกว่า (equity holder) จะเป็นฝ่ายรับความเสียหายก่อน
-
ปัจจุบันสินทรัพย์ดาต้าเซ็นเตอร์คิดเป็น 10~22% ของพอร์ต REIT หลัก เพิ่มขึ้นรวดเร็วจาก ‘0’ เมื่อ 2 ปีก่อน
5. ความเสี่ยงจากการแข่งขันของ custom silicon
- การใช้งาน AI accelerator ที่พัฒนาเองโดยตรงกำลังขยายตัว เช่น Microsoft (Maia), Google (TPU), Amazon (Trainium/Inferentia), Meta (MTIA)
- หากลูกค้าเปลี่ยนไปใช้ชิปของตนเอง มูลค่าทรัพย์สินที่ใช้ GPU เป็นหลักประกันของ CoreWeave และรายอื่นอาจลดลง และทำให้ความเสี่ยงของ vendor financing ของ Nvidia สูงขึ้น
ความแตกต่างเชิงแก่นระหว่าง Nvidia กับ Lucent
- Lucent: ตกแต่งรายได้ 1.1 พันล้านดอลลาร์, ผู้บริหาร 10 คนถูก SEC ฟ้อง, งบการเงินขาดความน่าเชื่อถือ
- Nvidia: อยู่ภายใต้การตรวจสอบของ PwC, อันดับเครดิตดีขึ้น, สร้างเงินสดมากกว่า 5 หมื่นล้านดอลลาร์ต่อปี, รักษาสถานะเงินสดสุทธิ 4.62 หมื่นล้านดอลลาร์ (2024)
- Lucent: ลูกค้าส่วนใหญ่ใช้เลเวอเรจหนี้สูงเกินไปและอยู่ในภาวะขาดทุน
- Nvidia: ลูกค้ารายใหญ่สุด (Microsoft, Alphabet, Amazon, Meta ฯลฯ) มีพื้นฐานแข็งแรงด้วยกระแสเงินสดจากการดำเนินงานรวม 4.51 แสนล้านดอลลาร์ในปี 2024
- Lucent มีการใช้งานจริงเพียง 0.002% เทียบกับการลงทุน แต่ฝั่ง Nvidia ลูกค้ารายใหญ่กลับรายงานปัญหาขาดแคลนโครงสร้างพื้นฐาน AI (ข้อจำกัดด้านอุปทาน)
ตัวชี้วัดที่ต้องจับตา
- อัตราการใช้งาน GPU: ต้องติดตามต่อเนื่องว่า GPU ในดาต้าเซ็นเตอร์ถูกใช้งานจริงมากพอหรือเป็นเพียงการกักตุนสต็อก
- ความสามารถทำกำไรของ OpenAI: ต้องตรวจสอบว่าการสร้างโครงสร้างพื้นฐานขนาดใหญ่แปรเป็นรายได้ที่คุ้มค่าหรือไม่
- สัญญาณหนี้เสีย: ต้องดูว่าตลาดสินเชื่อที่ใช้ GPU เป็นหลักประกันมูลค่า 1.5 หมื่นล้านดอลลาร์เริ่มมีสัญญาณผิดนัดชำระหรือไม่
- แนวโน้มการบริหาร AR (Accounts Receivable): แม้อัตราส่วน AR ดีขึ้น (68%→30%) แต่ยังต้องระวังการทรุดลงเพิ่มเติม
- การกระจายฐานลูกค้า: ต้องติดตามว่ามีการหาลูกค้ากลุ่มใหม่ได้หรือยัง และยังพึ่งพาลูกค้ารายใหญ่ไม่กี่รายต่อไปหรือไม่
- ประเด็น custom silicon: หาก hyperscaler หันไปใช้ชิปของตนเอง ความเสี่ยงจากการเปิดรับ financing ของ Nvidia จะเพิ่มขึ้น
- แนวโน้มการรวมตัวของเวนเดอร์: หลังตลาดทดลองทางเลือกหลายแบบ ความต้องการอาจไปกระจุกอยู่ที่เวนเดอร์เพียงไม่กี่รายในท้ายที่สุด
- อัตราการใช้งาน AI จริงในสหรัฐเพิ่มจาก 20% ในปี 2023 เป็น 40% ในปี 2025
- แต่ตามงานวิจัยของ MIT โครงการนำร่อง AI ถึง 95% ยังไม่สร้างผลลัพธ์ทางการเงินที่เป็นรูปธรรม สะท้อนปัญหาด้านการบูรณาการ
- ถึงกระนั้น ก็ยังมีสัญญาณบวก เช่น ค่าแรงของแรงงาน AI เพิ่มเป็น 2 เท่า และผลิตภาพของผู้ใช้เพิ่มได้ถึง 40%
- OpenAI มีรายได้ 4.3 พันล้านดอลลาร์และขาดทุน 4.7 พันล้านดอลลาร์ในครึ่งแรกของปี 2025 (ครึ่งหนึ่งเป็นค่าตอบแทนแบบหุ้น) จึงยังอยู่ในภาวะขาดทุน
- ต่างจากอดีต ลูกค้ารายใหญ่ในปัจจุบันมีเงินสดเพียงพอ รักษาการบริหารที่เน้นผลลัพธ์ และมีอุปสงค์โครงสร้างพื้นฐานจริงอยู่
บทสรุป: ความเสี่ยงเชิงโครงสร้างของการเงินแบบวนลูปและตลาด AI ปี 2025
- กลยุทธ์ vendor financing ขนาดใหญ่ของ Nvidia อาศัยการเติบโตและความต้องการเทคโนโลยีที่ชัดเจน แต่ก็แฝงความเสี่ยงอย่างการกระจุกตัวของลูกค้า ความผันผวนของมูลค่าทรัพย์สิน และการนำ custom silicon มาใช้
- เช่นเดียวกับกรณีของ Lucent หากเกิดการประเมินมูลค่าทรัพย์สินสูงเกินจริง หนี้เสีย หรือความโปร่งใสทางบัญชีลดลง ความเสี่ยงอาจกลายเป็นจริงอย่างรวดเร็ว จึงต้องติดตามตัวชี้วัดสำคัญและแนวโน้มตลาดอย่างเข้มงวด
ภาคผนวก: การทุจริตทางบัญชีของ Lucent และวิกฤตการเงินแบบวนลูป
- Lucent ถูก SEC สอบสวนจากการทุจริตทางบัญชีในปี 2000 (ปั่นรายได้ 1.15 พันล้านดอลลาร์ และกำไรก่อนภาษี 470 ล้านดอลลาร์)
- ‘channel stuffing’: ส่งสินค้าที่ยังขายไม่ออกไปยังตัวแทนจำหน่ายล่วงหน้า แล้วบันทึกเป็นรายได้ทันที
- ‘side agreement’: รับรู้รายได้ทั้งที่มีการให้สิทธิคืนสินค้าหรือสิทธิพิเศษเพิ่มเติมนอกเหนือจากสัญญาจัดจำหน่าย
- ‘การปั่นสำรอง’: ตั้งและกลับรายการสำรองผลขาดทุนเกินจริงเพื่อลดความผันผวนของผลประกอบการ
- Lucent ถูกปรับ 250 ล้านดอลลาร์ และผู้บริหาร 10 คนถูกฟ้อง
- ตัวอย่างสำคัญคือ หลังให้ financing มูลค่า 2 พันล้านดอลลาร์แก่ WinStar แล้ว WinStar ล้มละลาย Lucent ต้องบันทึกขาดทุน 700 ล้านดอลลาร์
- รูปแบบเช่นนี้ทำให้ในช่วงปี 2001~2002 ต้องตั้งสำรองหนี้สูญ 3.5 พันล้านดอลลาร์ เป็นตัวอย่างชัดเจนของการปรากฏขึ้นของความเสี่ยงหนี้เสียจริง
1 ความคิดเห็น
ความเห็นจาก Hacker News
ผมเคยทำงานที่ ISP ขนาดเล็กในละแวกบ้านช่วงยุค 90 ตอนนั้น Lucent ล้ำหน้าที่สุดในด้านอุปกรณ์อินเทอร์เน็ต เราใช้ Portmaster 3 จัดการการเชื่อมต่อแบบ dial-up และยังเคยมองเทคโนโลยีไร้สายยุคแรกของ Lucent ด้วย
กฎหมาย Telecommunications Act 1996 บังคับให้บริษัทโทรคมนาคมต้องให้ผู้อื่นเช่าโครงสร้างพื้นฐานได้ ส่งผลให้ค่าเช่า T1 ของ ISP ลดลงมาก (T1 ลดจาก 1,800 ดอลลาร์ต่อเดือนในปี 96 เหลือ 600 ดอลลาร์ในปี 99) จากนั้นบริษัทโทรคมนาคมก็ฟ้อง FCC และภายในปี 2003 กฎหมายนี้ก็แทบหมดฤทธิ์ไป
คำอธิบายในวิกิเกี่ยวกับผู้ให้บริการแลกเปลี่ยนท้องถิ่นแบบแข่งขัน
ราคาต่างกันมากตามแต่ละพื้นที่ ISP เล็กที่ผมทำงานอยู่จ่ายค่า T1 จาก 1,500 ดอลลาร์ต่อเดือนลงมาเหลือ 500 ดอลลาร์ แล้ว T1 loop ไปถึงลูกค้าก็เหลือ 100 ดอลลาร์ต่อเดือน ส่วนวงแหวน OC12 SONET ที่ backhaul ทราฟฟิกทั้งเส้นกลับดาต้าเซ็นเตอร์นั้นเสียค่าใช้จ่ายหลักพันดอลลาร์
ต้นเหตุสำคัญของความผันผวนด้านราคาทั้งหมดนี้คือข้อบังคับในกฎหมายโทรคมนาคมที่ให้ ILEC ต้องขายการเข้าถึงอุปกรณ์เครือข่ายแบบแยกส่วน
CLEC (ผู้ให้บริการคู่แข่ง) ส่วนใหญ่ก็ยังใช้โครงข่ายกายภาพของ ILEC ในพื้นที่อยู่ดี จึงเกิดการเปลี่ยนแปลงเชิงโครงสร้างอย่างมาก
เรื่องน่าสนใจคือช่วงปลายยุค 90 ตอน dial-up ยังครองตลาดนั้น voice T1 PRI (250 ดอลลาร์ต่อเดือน) กลับถูกกว่า data T1 (500 ดอลลาร์ต่อเดือน) จึงถูกนำมาใช้กันมาก
แม้หลังจากกฎหมายนี้หมดฤทธิ์ ILEC ก็ยังขายบริการ wholesale/unbundled ต่อไป ดูเหมือนจะรู้แล้วว่าธุรกิจนี้ทำกำไรดีมาก
ผมเคยทำงานที่สตาร์ทอัพช่วงบูมของโทรคมนาคม
ตอนนั้นบริษัทอย่าง Cisco ถึงขั้นซื้อสตาร์ทอัพที่ยังไม่มีสินค้า IPO คือทางออกเดียว และวิศวกรก็ถูกล็อกอัพ 6 เดือน
คนที่โชคดีหน่อยก็ออกได้ทันผ่าน IPO หรือการขายกิจการก่อนราคาจะดิ่ง พอฟองสบู่แตก เงินทุนก็แห้งเหือดและสตาร์ทอัพแทบทั้งหมดก็ล้มไป
หลังซบเซาอยู่นานหลายปี บริษัท IT รุ่นใหม่ถึงเริ่มก่อตัวขึ้นอีกครั้ง
ฟังดูน่าสนใจมากว่ากฎระเบียบแค่ 4 ปีเปลี่ยนดุลอำนาจระหว่างยักษ์ใหญ่โทรคมนาคมกับ ISP รายเล็กได้จริงหรือไม่
คำอธิบายว่ากฎเฉพาะบางอย่างเป็นตัวจุดชนวนการเติบโตของอินเทอร์เน็ตนั้นขัดกับคำทำนายเดิมที่บอกว่าถ้าไม่ยกเลิกการกำกับดูแลทุกอย่างจะพัง
ผมเพิ่งเคยได้ยินครั้งแรกว่ากฎหมายที่ใช้เพียงช่วงสั้น ๆ ก็เพียงพอแล้ว
การฆ่าการแข่งขันในธุรกิจโทรคมนาคมและการปล่อยให้เกิดการผูกขาดเป็นปัญหาใหญ่ของระบบยุติธรรม
ตัวบทกฎหมายชัดเจน แต่ศาลกลับเพิกเฉยต่อเจตนารมณ์นิติบัญญัติแทบทั้งหมดด้วยเหตุผลว่า "การวางใยแก้วนำแสงมันแพง"
ถ้าพูดเรื่องราคา แม้สายวงจรอย่าง T1 หรือ OCx จะยังถูกใช้อยู่มาก แต่ช่วงปี 96-99 DSL ก็เริ่มมาและช่วยกดราคาลงอย่างแรง
การเปลี่ยนแปลงทางกฎหมายอาจมีผลต่อจังหวะของสงครามราคาและฟองสบู่โทรคมนาคม
แต่สงครามราคานั้นเองก็หลีกเลี่ยงไม่ได้อยู่แล้ว และฟองสบู่ก็น่าจะเกิดขึ้นสูงมาก
การลงทุนในโครงสร้างพื้นฐานโทรคมนาคมเป็นปฏิกิริยาต่อราคาหุ้นดอตคอมที่พุ่งแบบบ้าคลั่ง
เครือข่ายใยแก้วถูกใช้งานไม่ถึง 0.002% ของความจุสูงสุด และยังมีช่องให้เพิ่มความเร็วได้ถึง 60,000 เท่า มันแค่เร็วเกินยุคไป
ผมไม่คิดว่า GPU จะเหลือเฟือแบบนั้น
ถ้าเราใช้งานได้ในลักษณะว่า "ช่วยครุ่นคิดเรื่อง codebase ทั้งคืน หาแนวทาง refactor ที่ดีกว่า แล้วพรุ่งนี้ค่อยมานำเสนอ" ปริมาณการใช้ GPU จะสูงกว่าตอนนี้มาก
ถ้า GPU 1 นาทีราคา 0.1 ดอลลาร์ ปล่อยรันทั้งคืนก็ 48 ดอลลาร์ ซึ่งดูคุ้มค่ามากทีเดียว (ไม่ว่าจะเป็นการปรับปรุงโค้ด ออกแบบรถ ปกหนัง แผนธุรกิจ หรืออะไรก็ตาม)
ผมก็ไม่คิดว่า GPU จะไม่มีวันเหลือใช้ แต่กลับคิดว่าสุดท้ายมันต้องเหลือแน่
บริษัทต่าง ๆ ซื้อ GPU ที่ไหลทะลักออกมาโดยสมมุติว่าความต้องการไม่มีที่สิ้นสุด
ขณะเดียวกันความเหนื่อยล้าจาก LLM ก็เริ่มมา โมเดลก็เล็กลงเรื่อย ๆ และฮาร์ดแวร์ฝั่งผู้บริโภคก็ดีขึ้น
สุดท้ายมันก็ต้องมี GPU ว่างจำนวนมาก
ประเด็นที่ว่าการปรับปรุงโค้ดต้องใช้ GPU นั้นยังเล็กมาก
อีกไม่นาน generative AI จะถูกใช้สร้างภาพยนตร์ระดับความละเอียดสูงมาก หรือแม้แต่ HDR และ 120 เฟรม
งานแบบนี้มีต้นทุน 100-1000 ดอลลาร์ต่อนาที และต้องใช้ GPU มหาศาล
กองทัพสหรัฐก็มีแผนใช้ generative AI เพื่อการจำลองภาพสนามรบแล้ว ซึ่งต้องใช้การประมวลผลหนาแน่นยิ่งกว่าวิดีโอความละเอียดสูงอีก
แนวคิดว่า AI สามารถ “ปรับปรุง” codebase ได้ก็น่าสนใจดี
แต่ผมยังไม่เคยเห็นมันทำได้ถึงขั้นปรับปรุงในโลกจริง เลยคงต้องเห็นกับตาก่อนถึงจะเชื่อ
เมื่ออัลกอริทึมและเทคนิคพัฒนาดีขึ้น ฮาร์ดแวร์รุ่นเก่าก็อาจยังมีประโยชน์อยู่
จินตนาการแบบ "ลองคิดเรื่อง codebase ทั้งคืน..." นั้นตั้งอยู่บนสมมุติฐานที่ผิดมาตั้งแต่ต้น
LLM ปัจจุบันยังแก้ปัญหาจริงจังด้วยตัวเองแบบอิสระไม่ได้
หลายคนหวังว่าวันหนึ่งมันอาจทำได้ แต่ผมมองว่าตอนนี้เราใกล้เพดานความสามารถของ LLM แล้ว
ฟองสบู่ AI รอบล่าสุดคือผลของการตีความช่วงต้นของ S-curve ทางเทคโนโลยีเกินจริง
ณ วันนี้ มันยังไม่พอ
ประวัติศาสตร์ของฟองสบู่ในอดีตพอใช้เป็นข้อมูลอ้างอิงได้บ้าง แต่ไม่ได้มีนัยสำคัญมากนัก
ไม่ว่าจะฟองสบู่ดอตคอม ฟองสบู่รถไฟ หรืออะไร ทุกครั้งมันต่างกัน
แก่นแท้คือความสามารถในการทำธุรกิจและ ROI (ผลตอบแทนจากการลงทุน)
ต่อให้กระแสเงินสดดูดี ถ้าผลตอบแทนทางเศรษฐกิจไม่ได้ยอดเยี่ยมเป็นประวัติการณ์ สุดท้ายก็เสี่ยงพังอยู่ดี
ทุกคนกำลังไล่ล่าห่านที่ออกไข่ทองคำ
จากที่ Bezos พูดถึงแผนสร้างดาต้าเซ็นเตอร์ขนาดเกิน 10GW ในอวกาศ มันทำให้ผมคิดว่านี่อาจไม่ได้มุ่งเรื่อง ROI มากนัก แต่อาจมุ่งไปที่โครงสร้างอำนาจในอนาคต คือการสร้างโลกที่มหาเศรษฐีไม่ต้องพึ่งแรงงานอีกต่อไป
ความเห็น HN ที่เกี่ยวข้อง
บทความเรื่อง Bezos พูดถึงดาต้าเซ็นเตอร์ในอวกาศ
ถ้ายึดติดกับกลไกในอดีตมากเกินไป เราจะจำกัดพื้นที่ของความเป็นไปได้ในอนาคตมากเกินจำเป็น
เพราะแม้แต่ฟองสบู่ดอตคอมเองก็เป็นเพียงหนึ่งใน “เส้นทางที่เป็นไปได้” จำนวนมาก
ถ้ามองแบบเดียวกัน เราก็อาจพลาดวิธีที่ฟองสบู่ครั้งหน้าจะเกิดขึ้นจริง
มีความกังวลว่าความต่างด้านการบันทึกบัญชีระหว่าง Lucent กับ Nvidia, Microsoft, OpenAI, Google แท้จริงอาจเป็นเพียงการพัฒนาไปสู่ "การโกหกที่แนบเนียนกว่าเดิมและการทำให้ดูเกินจริงกว่าความจริง"
กว่าฟองสบู่จะแตก ตัวเลขจริงถึงจะโผล่ออกมา
รอบนี้ต่างจากอดีตเพราะยังมีเงิน fiat และแรงหนุนจากรัฐบาลอยู่เบื้องหลังด้วย
ผมอยู่ท่ามกลางการล่มสลายของดอตคอมและโทรคมนาคม โดยเฉพาะฝั่งโทรคมนาคมหนักกว่ามาก
ใยแก้วนำแสงไม่ขึ้นสนิม แต่มีการติดตั้งเกินมหาศาล และอีก 10 ปีต่อมา ด้วยเทคโนโลยี DWDM เราใช้จริงแค่ 2 เส้นจากทั้งหมด 8 เส้น (เพราะใช้ความยาวคลื่นได้หลากหลายกว่ามาก)
เลยสงสัยว่ามูลค่ามือสองของ GPU ในอีก 10 ปีจะเป็นเท่าไร และจะมี “ทางออกแบบ DWDM” สำหรับ GPU ที่ลงทุนเกินไปหรือไม่
ตอนนี้เราอยู่ในช่วงเวลาที่น่าสนใจมากจริง ๆ
ปัญหาใหญ่ที่สุดของ Nvidia คือรายได้ของบริษัทไม่ได้มีความถาวร แต่ตลาดกลับประเมินเหมือนเป็น recurring revenue ทั้งที่จริงแล้วมันคือการลงทุน CAPEX ที่อยู่ได้แค่ราว 1-2 ปี
ผมมองแบบง่าย ๆ ว่าโครงสร้างนี้ไม่มีทางอยู่ต่อไปได้เรื่อย ๆ
ราคาหุ้น NVDA ก็ไม่ได้แพงสุดโต่งอะไร แค่ EPS 25 เท่า
รายได้กำลังโตเร็ว และเรากำลังอยู่หน้าการเปลี่ยนผ่านทางเทคโนโลยีที่สำคัญที่สุดในประวัติศาสตร์
ตลาดเองก็สะท้อนการชะลอตัวของการเติบโตเข้าไปในราคาแล้วบางส่วน
บริษัทอย่าง Zoom หรือ Peloton ที่โดดเด่นช่วงโควิดก็คล้ายกัน คือคนในตลาดสมมุติว่าอนาคตแบบนั้นจะยืดต่อไปเรื่อย ๆ
โครงสร้างตลาดมักวนซ้ำรูปแบบนี้ตลอด ช่วงหลัง ๆ ก็มี 3D printing กับเนื้อทางเลือกเช่นกัน
การลงทุนใน OpenAI อาจตีความได้ว่าเป็น hedge ต่อการชะลอตัวของ CAPEX
Nvidia แค่ประกาศขายเมื่อไร การ์ดจอก็หมดทันที
มาร์จิ้นสูงมาก แต่ก็ยังผลิตไม่ทันความต้องการ
สุดท้ายแล้วมันก็เป็นตรรกะเศรษฐศาสตร์ล้วน ๆ
ถ้าดีมานด์สะดุดแค่ครั้งเดียว GPU มือสองจะทะลักออกมา และก็ไม่จำเป็นต้องซื้อของใหม่อีก
พอถึงตอนนั้น Nvidia จะรักษาระดับรายได้ปัจจุบันไว้ไม่ได้แน่
TSLA ก็เหมือนกัน
ตลาดหุ้นแทบจะเป็นธนาคารสำหรับคนรวย และถูกห่อหุ้มด้วยการปล่อยกู้กับเครดิต
ของจริงมันก็เป็นฟองสบู่ แต่เป็นโลกที่คนรวยเท่านั้นที่สนใจ
คนธรรมดาอย่างพวกเราก็เป็นแค่นักลงทุนรายย่อยเท่านั้น
ตอนที่ผมทำงานอยู่กับ "ที่สุดของบริษัทโทรคมนาคม" พวกเราเพิ่งมาเปิดใช้งาน dark fiber ในอีก 15 ปีให้หลัง (ปี 2015) เพราะความต้องการข้อมูลมือถือ
ขนาดของการติดตั้งเกินนั้นมหาศาลจริง ๆ
สายใยแก้วนำแสงมีประโยชน์เสมอ แต่ผมไม่แน่ใจว่า GPU จะอยู่ได้นานแบบนั้นหรือเปล่า
พูดจากประสบการณ์ส่วนตัวล้วน ๆ
ใยแก้วนำแสงรุ่นใหม่แทบไม่ได้มีประสิทธิภาพพลังงานดีขึ้นเลย
แต่ประสิทธิภาพของรถแบ็กโฮที่ใช้ขุดดินก็ไม่ได้ดีขึ้นเช่นกัน
สำหรับคำถามว่า "การ์ดพวกนี้จะใช้ได้นานไหม" ในตัวอย่างที่ยกในบทความบอกว่าเพราะความเค้นสูง อายุใช้งานอาจมีแค่ 1-2 ปี
ในปี 2005 โทรคมนาคมยังเป็นธุรกิจทำเงินสดมหาศาลจากค่าบริการโทรทางไกล และถ้ามีสวิตช์แบบกลไกที่ตัดค่าเสื่อมหมดแล้วก็แทบพิมพ์เงินได้เลย (เพราะกฎระเบียบการันตีกำไร)
แต่โครงสร้างนั้นก็อยู่ได้ไม่นาน หลายพื้นที่จึงเริ่มขยายไปสู่บริการ managed service ที่เป็น "รายได้ไม่ถูกกำกับ" (เช่นโซลูชันแบบ DataDog)
ธรรมชาติของธุรกิจคือความมองโลกในแง่ดีแบบไร้เหตุผลสามารถทำลายบริษัทได้ทุกเมื่อ
ตัวชิปเองอาจอายุไม่ยืน แต่ R&D ที่ใส่เข้าไปในนั้นยังมีคุณค่าอยู่
ปัญหาคือจะกู้คุณค่านั้นกลับมาได้มากแค่ไหน
ผมมองว่าดาต้าเซ็นเตอร์ความหนาแน่นสูงที่กำลังก่อสร้างเพื่อรองรับ hyperscaler ก็คล้ายกับการติดตั้ง dark fiber เกินความต้องการนั่นแหละ
ตอนที่เปิดใช้งานเส้นใยในปี 2015 ก็คงไม่ได้ใช้ line card ที่ซื้อไว้ตั้งแต่ปี 1998 ตรง ๆ หรอก
โดยพื้นฐานแล้วผมคิดว่าประเด็นใหญ่สุดคือความไม่แน่นอนของการบรรลุ AGI (ปัญญาประดิษฐ์ทั่วไป)
ตอนนี้เงินลงทุนระดับ topline 90% เทไปบนสมมุติฐานว่าจะไปถึงภายใน 2-5 ปี
ถ้ามันมาไม่เร็วพอ ก็เสี่ยงมากที่ความสนใจของนักลงทุนจะหายวับ
ตอนนี้ยังคงประคองความตื่นเต้นไว้ได้ด้วยการเติบโตของ benchmark แต่ผมคาดว่าอีก 6-12 เดือน milestone ใหม่ ๆ ก็จะเริ่มตัน
ขั้นต่อไปจริง ๆ คือต้องแสดงผลลัพธ์จริงในงานอย่างการพัฒนาซอฟต์แวร์ การวิจัยมะเร็ง หรือหุ่นยนต์
ในโครงสร้างปัจจุบัน ผมมองว่ายาก
ผมคิดว่า AGI ยังอีกไกล
โอกาสที่ใหญ่ที่สุดน่าจะอยู่ในโดเมนอย่างกฎหมายและการแพทย์ ที่มีฐานความรู้มหาศาลจนคนต้องเรียนถึงระดับบัณฑิตศึกษาเพื่อเชี่ยวชาญ
โดยเฉพาะการเขียนโค้ดน่าจะได้ประโยชน์จาก LLM มากขึ้น
ปัญหาคือเมื่อ backlog งานน่าปวดหัวอย่างการ refactor โค้ดเก่าถูกจัดการไปหมดแล้ว การสร้างโค้ดใหม่เพียงอย่างเดียวไม่มีทางรักษาฟองสบู่ความต้องการฮาร์ดแวร์ระดับปัจจุบันไว้ได้
แม้แต่ hyperscaler เองก็ยังใช้เงินลงทุน AI (CAPEX) ไม่ถึงครึ่งของกระแสเงินสดจากการดำเนินงาน
ถ้ากำลังเดิมพันกับการไปถึง AGI จริง ขนาดการลงทุนคงใหญ่กว่านี้มาก
“ความสงสัยของคุณตอนนี้อาจไม่มีมูลพอ ๆ กับคำพูดเมื่อ 5 ปีก่อนที่ว่า ‘เครื่องจักรที่คิดได้เป็นไปไม่ได้’ ก็ได้ เพราะตอนนี้ LLM ก็เกิดขึ้นแล้ว”
ไม่เข้าใจว่าทำไมคนถึงกดโหวตลบ
แค่คุยกับนักวิจัย AI ก็จะเห็นว่าพวกเขามีความคาดหวังที่สมจริง
แต่ยิ่งเป็นฝั่งธุรกิจที่ไม่เข้าใจเทคโนโลยี ก็ยิ่งมีความคาดหวังเกินจริงมาก
ถึงขั้นคิดว่า "จ่ายเดือนละ 20 ดอลลาร์ให้ ChatGPT แล้วมันจะทำงานทั้งหมดให้ได้" แล้วก็เริ่มลดคน ปรับงบ ปรับแผน และปรับการจ้างงานกันไปแล้ว
พออีก 1 ปีแล้วเห็นชัดว่าไม่ได้ผล ทัศนคติต่อ AI ก็จะเหวี่ยงกลับทันที (โกรธ หลีกเลี่ยง ไม่ไว้ใจผลิตภัณฑ์ใหม่ ฯลฯ)
เมื่อความล้มเหลวสะสม อัตราการเติบโตก็จะช้าลง แล้วความกังวลของนักลงทุน ราคาหุ้นร่วง และมูลค่าประเมินลดลงก็จะตามมา
สิ่งที่ผมไม่เข้าใจคือความมองโลกในแง่ดีที่ว่าความต้องการ GPU สำหรับ “การฝึก” จะยังเติบโตสูงต่อไปแบบทุกวันนี้
ผมเข้าใจความต้องการด้าน inference แต่ตอนนี้ก็มีโมเดลฟรีที่ดีมากอยู่แล้ว และยังรันได้ดีบนอุปกรณ์ผู้บริโภคอย่าง Apple M4 หรือ AMD Max APU
ในสถานการณ์แบบนี้ ผมสงสัยจริง ๆ ว่าความต้องการลงทุน GPU เพิ่มยังเหลืออีกมากแค่ไหน
ผมคิดว่า Reinforcement Learning (การเรียนรู้แบบเสริมกำลัง) จะเป็นสมรภูมิ GPU แห่งใหม่
เช่น การเปลี่ยนแปลงของ o1, o3, GPT-5, Sonnet 3.7, 4, 4.5
เมื่อทุกคนสามารถทำ inference ด้วย B200 ได้ โมเดลอาจกลับมาใหญ่ขึ้นอีก แต่ตอนนี้ความกระหาย GPU หนักสุดอยู่ที่งบฝึก RL
แต่ก็มีคนเถียงว่าปลายทางสุดท้ายมันคือการแข่งขันไม่รู้จบเพื่อรัน GPU ให้มากขึ้น แล้วขยับเข้าใกล้ AGI ไปอีกก้าวไม่ใช่หรือ
มีการคาดกันว่าโครงสร้างแบบ Continuous Learning จะเป็นตัวกระตุ้นความต้องการ GPU ตัวถัดไป
สุดท้ายแล้ว inference น่าจะไปอยู่บนคลาวด์แบบแชร์ทรัพยากรร่วมกัน เพราะต้นทุนต่ำที่สุด
กรณีใช้งาน B2B ส่วนใหญ่น่าจะย้ายไปพึ่งดาต้าเซ็นเตอร์อย่าง AWS
มีเพียงกรณีพิเศษ (เช่น CERN หรือ Apple Siri) ที่อาจใช้ฮาร์ดแวร์เฉพาะอย่าง FPGA หรือ ASIC กินไฟต่ำ แต่ที่เหลือมาตรฐานจะค่อย ๆ กลายเป็น “อยู่บนคลาวด์”
ตอนฟองสบู่ดอตคอม โฆษณาสร้างผลแบบวงจรหมุนเวียน
VC ใส่เงินให้สตาร์ทอัพ แล้วสตาร์ทอัพก็เอาเงินนั้นไปซื้อโฆษณากับ Yahoo เป็นต้น
รายได้ของ Yahoo พุ่ง หุ้นขึ้น และสิ่งนี้ก็ถูกมองเป็นสัญญาณว่าอินเทอร์เน็ตทำเงินได้ ทำให้ตลาด IPO ของสตาร์ทอัพรายอื่นยิ่งคึกคัก
ยิ่งเงินหมุนมาก วงจร โฆษณา→รายได้→มูลค่าตลาด→เงิน VC เพิ่ม→โฆษณาเพิ่ม ก็ยิ่งดำเนินต่อไป
ในเอกสารอ้างอิงข้อ 14 มีการบอกว่า OpenAI จะไม่ได้ซื้อ GPU ของ Nvidia แบบจ่ายครั้งเดียว แต่จะเช่าใช้แทน
ดังนั้นผมเลยไม่ค่อยเข้าใจว่าทำไม Nvidia ถึงเรียกสิ่งนี้ว่า "ลงทุนตรงนี้"
ถ้าเป็นการเช่า ก็แค่รับค่าเช่าไม่ใช่หรือ แล้วมันนับเป็นการลงทุนตรงไหน? Nvidia ลงทุนอะไร?
ตอนที่ Nvidia ผลิตและส่งมอบ GPU ในช่วงแรก บริษัทต้องลงเงินล่วงหน้าก่อน และถ้าการจัดสรรสินทรัพย์นี้ปิดบัญชีไม่ได้ตามแผน (เช่น ลูกค้าล้มละลาย) Nvidia ก็ต้องรับความเสี่ยง
บริษัทรับความเสี่ยงนั้นเพื่อหวังผลตอบแทนเพิ่ม ดังนั้นโครงสร้างนี้จึงมีลักษณะของการลงทุนอยู่
ผมไม่ใช่นักบัญชี แต่ผมคิดว่าพอหมดสัญญาเช่า Nvidia ก็คงเหลือเพียงสินทรัพย์ราคาต่ำที่ถูกหักค่าเสื่อมไปแล้วในมือ
ต่างจากตลาดรถเช่า ตลาด GPU มือสองคงไม่ได้ใหญ่ขนาดนั้น
พูดอีกแบบคือ Nvidia กำลังให้ GPU แบบ "ผ่อนจ่าย" โดยไม่ได้รับเงินเต็มจำนวนล่วงหน้า
ผมสงสัยว่าค่าเช่ารวมทั้งหมดจะเท่ากับต้นทุนหรือไม่