5 คะแนน โดย GN⁺ 2025-10-19 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • OpenAI เผชิญสถานการณ์ที่ต้องระดมทุนมากกว่า 400 พันล้านดอลลาร์สหรัฐ ภายใน 12 เดือนข้างหน้า
  • ยอดเงินดังกล่าวใช้เพื่อรองรับแผนการขยายตัวขนาดใหญ่ที่รวมถึง การก่อสร้างศูนย์ข้อมูลขนาดใหญ่ สัญญาชิป AI และต้นทุนค่าแรงกับค่าใช้จ่ายการดำเนินงาน
  • ค่าใช้จ่ายในการสร้างศูนย์ข้อมูลหนึ่งแห่งคาดเป็นเพียง 5~60 พันล้านดอลลาร์สหรัฐ และ OpenAI ตั้งเป้าขยายกำลังการผลิตเป็น 33GW ภายในปี 2029 และ 250GW ภายในปี 2033
  • ความเร็วและขนาดการขยายตัวในระดับนี้เกินขีดจำกัดด้านการเงินและโครงสร้างพื้นฐานระดับโลกจนดูแทบเป็นไปไม่ได้
  • หากเป็นไปตามแผนนี้ OpenAI จะกดดัน ตลาดทุนโลกอย่างรุนแรง พร้อมทั้งก่อให้เกิดความเสี่ยงร้ายแรงต่อทั้งนักลงทุนและภาคอุตสาหกรรมโดยรวม

ภาพรวม

  • OpenAI จะต้องระดมทุนในอัตราที่ยิ่งใหญ่และไม่เคยเกิดขึ้นมาก่อนเพื่อผลักดันแผนการขยายตัวที่ทะเยอทะยาน เช่น การก่อสร้างศูนย์ข้อมูลขนาดใหญ่ สัญญาทุกชนิดของชิป และต้นทุนการดำเนินการในอนาคต
    • ในหนึ่งปีหน้าอย่างน้อย 400 พันล้านดอลลาร์สหรัฐ เท่านั้น และหมายถึงภาระหนักต่อทั้งระบบการเงินโลก ไม่ใช่เฉพาะ OpenAI เท่านั้น
  • มีความเห็นต่างต่อกระแสรายงานที่มองว่าการร่วมมือชิปกำหนดเองระดับ 10GW และคำมั่นการติดตั้งระดับหลาย GW เป็นเรื่อง "สมเหตุสมผลและปฏิบัติได้จริง"
    • เชื่อว่าควรปรับต้นทุนการสร้าง 1GW ขึ้นเป็น 50 พันล้านดอลลาร์สหรัฐ และคำนึงถึงต้นทุนรวมที่รวมค่าอาคาร โครงสร้างพื้นฐานไฟฟ้า และเครือข่ายข้อมูลด้วย
    • จึงประเมินว่าถ้าพิจารณา ระยะนำร่องอย่างน้อย 2.5 ปี และการสำรองกำลังไฟฟ้าแล้ว ความเป็นไปได้ตามตารางเวลาจะเกือบเป็นไปไม่ได้
  • เหตุผลที่ปรับประมาณการเดิมจาก 32.5 พันล้านดอลลาร์ต่อ GW เป็น 50 พันล้านดอลลาร์ต่อ GW คือเชื่อว่าต้องแก้ปัญหาค่าประเมินต่ำเกินไปในหลายส่วน เช่น ราคาชิป, เครือข่าย, โครงสร้างพื้นฐานประกอบ และการมีส่วนร่วมต้นทุนจากบริษัทนอก
    • ตัวอย่างเช่น ราคาหน่วยและจำนวนที่สมมติของ GB200/Blackwell, การจัดหา Lancium, และสเกล 8 อาคาร/50,000 GPU ล้วนเป็นแรงกดดันต้นทุน

การตรวจสอบไทม์ไลน์ครึ่งหลังปี 2026

  • Broadcom: ตั้งเป้าภายหลังในการทำ tapeout, การผลิตจำนวนมาก และการวางระบบ 1GW ของชิปสำหรับงานอนุมานในครึ่งหลังปี 2026
    • ยังไม่ระบุที่ตั้งและยังไม่เริ่มสร้าง ในขณะที่ต้องการกำลังไฟฟ้ารวม 1.2~1.3GW ต่อ 1GW IT ทำให้โอกาสชนตารางเวลาก่อนหน้านี้สูง
  • AMD: วางแผนการปล่อยล็อตแรก MI450 1GW ในครึ่งหลังปี 2026
    • เพื่อให้แล้วเสร็จตามเวลา ต้องมีการจัดซื้อเมื่อปีก่อน สัญญาพลังงาน และการเริ่มก่อสร้างล่วงหน้าเสมอ
  • NVIDIA: มีแผนจัดวาง Vera Rubin 1GW ในครึ่งหลังปี 2026
    • เช่นเดียวกัน ต้องมี ไซต์ พลังงาน และการก่อสร้าง ที่เริ่มไปแล้ว จึงจะเข้ากับกรอบเวลา
  • แม้คำนวณแบบอนุรักษ์นิยมก็ยังต้องการมากกว่า 100 พันล้านดอลลาร์สหรัฐ และจำเป็นต้องมีการจ่ายเงินสดล่วงหน้าหรือ คอนซอร์เทียมขนาดใหญ่

ความสงสัยต่อข้ออ้างด้านความต้องการ การจราจร และกำลังการผลิต

  • ตัวเลข MAU รายสัปดาห์ 800 ล้าน อาจมีการนับซ้ำได้ และแผน 250GW และ 10 ล้านล้านดอลลาร์สหรัฐในปี 2033 ก็ถูกมองว่าไม่สมจริง
    • เมื่อเทียบกับการประเมินภาระโหลด IT ของศูนย์ข้อมูลทั่วโลกปี 2024 ที่ 55GW การเพิ่มศักยภาพของบริษัทเดียวถึง 5 เท่าใน 8 ปี ถือว่าเป็นสิ่งที่ไม่เคยเกิดขึ้นมาก่อน
  • ด้านศักยภาพผลิตภัณฑ์ เมื่อพิจารณาผลลัพธ์ที่จำกัดของ GPT-4.5, GPT-5, และ Sora 2 ความคุ้มค่าของการเผาเงิน R&D จำนวนมากเมื่อเทียบกับผลผลิตที่เกิดขึ้นจึงเป็นคำถาม
    • พิจารณาจากการวิเคราะห์ภายนอกพบว่าการใช้จ่าย R&D 11~12 พันล้านดอลลาร์สหรัฐ ในช่วง 2024~2025 มีค่าใช้จ่ายสำหรับการฝึกโมเดลใช้งานจริงค่อนข้างจำกัด

รายการเงินที่ต้องการภายใน 12 เดือน (ประมาณการของผู้เขียน)

  • 1GW สำหรับ Broadcom: ประมาณ 50 พันล้านดอลลาร์สหรัฐ
  • 1GW สำหรับ NVIDIA + การซื้อชิป: ประมาณ 50 พันล้านดอลลาร์สหรัฐ
  • ต้นทุนคอมพิวต์ปี 2026 (ผ่าน Oracle·CoreWeave·Azure·GCP): ประมาณ 40 พันล้านดอลลาร์สหรัฐ
  • 1GW สำหรับ AMD + การซื้อชิป: ประมาณ 50 พันล้านดอลลาร์สหรัฐ
  • การพัฒนาอุปกรณ์ผู้บริโภค: ประมาณ 500 ล้านดอลลาร์สหรัฐ
  • ความร่วมมือออกแบบ CPU ที่ใช้สถาปัตยกรรม ARM: ประมาณ 1 พันล้านดอลลาร์สหรัฐ
  • การปรับ OPEX อื่น ๆ เช่น การขาย การตลาด และเงินเดือน: ประมาณ 10 พันล้านดอลลาร์สหรัฐ
    • รวมเป็น 391.5 พันล้านดอลลาร์สหรัฐ ≈ 400 พันล้านดอลลาร์สหรัฐ และจำเป็นต้องมีการใช้จ่ายเงินสดจำนวนมากก่อน เดือนกุมภาพันธ์ 2026

ข้อจำกัดทางการเงินและความเสี่ยงเชิงโครงสร้าง

  • ในบริบทปี 2025 ครึ่งปีแรกที่ประเมินว่าใช้จ่าย R&D 6.7 พันล้านดอลลาร์สหรัฐ และ S&M 2 พันล้านดอลลาร์สหรัฐ การไหลออกของเงินสดยังคงต่อเนื่อง
    • การคาดการณ์สำหรับครึ่งปีแรกปี 2026 แสดงให้เห็นโครงสร้างผลขาดทุนเมื่อเปรียบเทียบ ใช้จ่ายคอมพิวต์ 9.2 พันล้านดอลลาร์สหรัฐ กับ รายได้ 4.3 พันล้านดอลลาร์สหรัฐ
  • ความเสี่ยงด้านธรรมาภิบาลและกำหนดการตามสัญญาเพิ่มขึ้นอีกชั้น ทั้งในเรื่องกำหนดเส้นทางการเปลี่ยนจาก องค์กรไม่แสวงกำไรสู่แสวงกำไร และข้อผูกพันแบบมีเงื่อนไขของ SoftBank มูลค่า 20 พันล้านดอลลาร์สหรัฐ
    • เงื่อนไขการแปลงหนี้ใน เดือนตุลาคม 2026 จากรอบทุน 6.6 พันล้านดอลลาร์สหรัฐ ในปี 2024 ก็เป็นภาระสำคัญเช่นกัน

ความเป็นจริงของดีลโครงสร้างพื้นฐานอย่าง Oracle และ CoreWeave

  • การปฏิบัติสัญญา Oracle มูลค่า 300 พันล้านดอลลาร์สหรัฐ ระยะเวลา 5 ปี คาดว่าต้องใช้ IT 4.5GW
    • Stargate Abilene มีการจัดสรรพลังงานเพียง 200MW ในปัจจุบัน และเมื่อคิดสำรองไฟฟ้าแล้ว IT อาจอยู่เพียงประมาณ 130MW
    • พื้นที่ Shackelford 1.4GW ยังอยู่ในช่วงเริ่มต้นก่อสร้าง เป้าหมายอาคารก้อนแรกคือ ครึ่งหลังปี 2026 และคาดว่าความสามารถใช้งานเต็มจะเป็นหลังปี 2027
  • เมื่อเทียบกับการระบุของ CoreWeave ว่าจะไปถึงระดับสูงสุด 900MW ในปลายปี 2025 ช่องว่างกับคำพูดว่า "2025 ทำงานได้ 2GW" จึงกว้างมาก

ขีดจำกัดของตลาดทุน ซัพพลายเชน และระบบไฟฟ้า

  • ยอดเงินที่ต้องใช้สูงกว่าน้ำหนุน VC ทั่วโลกปี 2024 ที่ 368 พันล้านดอลลาร์สหรัฐ และเมื่อเทียบกับดีล private equity และการค้าระดับโลกก็ยังเห็นการดูดซับได้อย่างจำกัด
  • มีคอขวดที่เกิดขึ้นพร้อมกันหลายจุด ได้แก่ หม้อแปลงไฟฟ้า, เหล็กไฟฟ้า, โครงข่ายไฟแรงสูง, การระบายความร้อน, อัตราส่วนสำรองในระบบไฟฟ้า, และแรงงานที่มีทักษะ ทำให้การชนตารางเวลาแทบหลีกเลี่ยงไม่ได้
  • ชุดประกาศเหล่านี้มีลักษณะเน้นการผลักดันหุ้นและดีลเป็นหลัก และข้อสรุปคือความเป็นไปได้ในการทำจริงค่อนข้างต่ำ

สรุป

  • ด้วยข้อจำกัดเชิงเวลา เงินทุน ทรัพยากร กฎระเบียบ และพลังงาน ความเป็นไปได้ในการทำให้สำเร็จตามแผนสัญญาจนถึงปี 2026 จึงยากอย่างมาก
  • การระดม 400 พันล้านดอลลาร์สหรัฐ ใน 12 เดือนข้างหน้ายังมีขีดจำกัดในการดูดซับของตลาดทุนโลกอย่างชัดเจน และหากไม่ทำตามแผนอาจเพิ่มความเสี่ยงด้านความน่าเชื่อถือ
  • เนื้อแท้คือความไม่สอดคล้องกันระหว่างคำมั่นด้านกำลังการผลิตที่อาจเกินจริงต่อความต้องการ ผลลัพธ์ผลิตภัณฑ์ และกระแสเงินสด จึงเป็นคำเตือนว่าหากไม่ทำให้แผนเป็นจริงได้จริง ปรับ governance ใหม่ และออกแบบโครงสร้างการระดมทุนใหม่ได้ใหม่ โครงการดังกล่าวจะยั่งยืนไม่ได้

1 ความคิดเห็น

 
GN⁺ 2025-10-19
ความคิดเห็นจาก Hacker News
  • แม้จะมองว่าอัตราการเติบโตของ OpenAI น่าประทับใจ ก็ยังมีมุมมองว่าการมีผู้ใช้เพิ่มขึ้น 100 ล้านคนในเวลาเพียงสองเดือนไม่ได้แปลว่ามนุษย์ทุกคนบนโลกจะใช้บริการนี้ตลอดเวลา ในทางกลับกัน ก็อาจโต้แย้งได้ว่าความเร็วในการเติบโตระดับนี้บ่งชี้ถึงศักยภาพที่มนุษย์ทั้งโลกอาจใช้งานเป็นประจำได้เช่นกัน อย่างไรก็ตาม ต้องระวังว่ากราฟการเติบโตอาจเป็นรูปตัว S จึงไม่ใช่การเติบโตแบบทวีคูณไปได้ไม่สิ้นสุด

    • การที่มีผู้ใช้เพิ่มขึ้น 100 ล้านคนในสองเดือนไม่ได้เป็นหลักฐานว่าทุกคนบนโลกต้องการมันตลอดเวลา ความนิยมกับประโยชน์ใช้สอยเป็นคนละเรื่องกัน ข้อมูลเกี่ยวกับผลกระทบของการใช้งาน LLM ที่เพิ่มขึ้นต่อดัชนีอย่างเช่นผลิตภาพน่าจะน่าเชื่อถือมากกว่า ที่จริงมีงานวิจัยบางชิ้นที่แสดงให้เห็นว่าผลิตภาพของงานวิชาชีพลดลงด้วยซ้ำ ดูงานวิจัยที่เกี่ยวข้อง

    • เพิ่งได้ลองใช้ ChatGPT แบบส่วนตัวเมื่อไม่นานมานี้ในฐานะตัวแทนการค้นหาและใช้งานจุกจิกเล็กน้อย ช่วงนี้การค้นหาแบบดั้งเดิมแย่มาก จนรู้สึกเหมือนนักมวยที่ฟอร์มก้ำกึ่งกำลังสู้กับแชมป์วัย 70 ปี ถ้าวันหนึ่งมันรันบนแล็ปท็อปของฉันได้ ก็น่าจะเป็นเครื่องมือที่ใช้งานได้ดีมากจริงๆ

    • คอขวดของ OpenAI ตอนแรกอยู่ที่ GPU แล้วก็ย้ายไปอยู่ที่พลังงาน คอขวดถัดไปคือ "มนุษย์ชีวภาพ" มีมุกว่าบางที OpenAI อาจหาวิธีสร้างมนุษย์เพิ่มเพื่อรักษาอัตราการเติบโตได้ด้วย

    • ในระยะยาว ถ้า AI ที่ใช้งานได้พอสมควรถูกฝังอยู่ในผลิตภัณฑ์วงกว้างอย่างเบราว์เซอร์, OS, สมาร์ตโฟน, โปรแกรมประมวลผลคำ ฯลฯ ตลาด AI แบบสแตนด์อโลนสำหรับผู้ใช้ทั่วไปอาจหดตัวลงอย่างมาก เครื่องมือเฉพาะทาง งานวิจัยล้ำสมัย และเครื่องมือเขียนโค้ดยังน่าจะมีความต้องการต่อไป แต่ไม่คิดว่าสิ่งนี้จะสร้างบริษัทระดับมูลค่าหลายล้านล้านได้ง่ายๆ

    • คนที่จ่ายเงินสมัครจริงๆ เดือนละ $20 มีอยู่ราว 5% เท่านั้น คล้ายกับ VR, AR คือถ้าฟรีก็ใช้นานๆ ครั้ง แต่ไม่จำเป็นถึงขั้นยอมจ่ายเอง คิดว่า LLM กลายเป็นสินค้ามาตรฐานไปแล้ว

  • เนื้อหาในบทความก็น่าสนใจ แต่ที่จริงภัยคุกคามใหญ่ที่สุดต่อ OpenAI หรือ Anthropic น่าจะเป็นโมเดลโอเพนซอร์ส โมเดลอย่าง deepseek, llama 3 กำลังไล่ตามมาเร็วมาก ถ้าสามารถใช้ฟีเจอร์แทบจะเหมือนกันได้ด้วยเงินน้อยกว่ามาก หรือใช้ฟรีบน GPU ของตัวเอง ก็ชวนให้สงสัยว่า OpenAI จะยังมีคุณค่าอะไรเป็นจุดขาย ส่วนตัวสมัครแบบเสียเงินกับ OpenAI อยู่ แต่ก็เพราะความสะดวกเป็นหลัก และใช้กับการตรวจสอบคณิตศาสตร์ได้โอเค เมื่อเทียบกับราคาแล้วก็ยังสงสัยว่าจะกลายเป็นบริการที่องค์กรต้องมีจริงๆ ได้หรือไม่ แน่นอนว่า OpenAI มีคนเก่งที่สุดจำนวนมากและมีเงินลงทุนรองรับ ดังนั้นฉันก็อาจคิดผิดได้

    • แม้จะบอกว่าโอเพนซอร์สอย่าง deepseek และ llama 3 กำลังไล่ตามมาเร็ว แต่การฝึกโมเดลขนาดใหญ่มีต้นทุนมหาศาล และสิ่งที่ปล่อยเป็นโอเพนซอร์สอยู่ตอนนี้ก็จริงๆ แล้วอยู่ในรูปแบบที่บริษัทเชิงพาณิชย์ยอมขาดทุนเพื่ออุดหนุนระบบนิเวศโอเพนซอร์ส คำถามคือถ้าบริษัทเหล่านี้หันมาแสวงหากำไรแล้ว "ดึงบันไดหนี" จะมีทางรับมือหรือไม่

    • ประเด็นที่ผู้เขียนพยายามจะสื่อคือ ต้องดูตัวเลขจริงอย่างสมเหตุสมผล แม้แต่การหาคนมาสร้างและเดินระบบดาต้าเซ็นเตอร์ก็ใช้เวลาพอสมควร ข้อโต้แย้งคือไทม์ไลน์ที่บทความนี้เสนอไว้นั้นเป็นไปไม่ได้ในทางปฏิบัติ

    • มีการอัดเงินจำนวนมากในระยะสั้น แต่ก็ยังสงสัยว่าดีมานด์จริงมาจากไหน และโมเดลแบบบริการตัวเองสไตล์ "รัน llama บน GPU ของตัวเอง" จะมีส่วนช่วยรายได้มากแค่ไหน มันดูมีอะไรไม่ลงตัว

    • ถ้าจะรัน deepseek, kimi หรือ glm ให้เร็วบน GPU ของตัวเอง ต้องใช้เงินกับฮาร์ดแวร์อย่างน้อยเกิน $50,000 และถ้าจะให้ประสิทธิภาพเข้าใกล้ OpenAI หรือ Anthropic ก็ต้องมี VRAM ความเร็วสูงระดับหลายร้อย GB ขึ้นไป

    • เหตุผลที่คนใช้ OpenAI ส่วนใหญ่คือคนจำนวนมากไม่ชำนาญด้าน IT ในโลกจริงแทบไม่มีคนทั่วไปที่ใช้ตัวบล็อกโฆษณา OpenAI ได้ฝังตัวอยู่ในความรับรู้ของสาธารณะแล้ว ถ้าบริษัทเลือกยัดโฆษณาแบบ Google ก็น่าจะสร้างฐานะที่แข็งแกร่งกว่านี้ได้ แต่การเลือกไปทางเศรษฐกิจฟองสบู่และกลโกงการลงทุนถือว่าเป็นการคำนวณพลาด

  • ทุกคนควรใจเย็นๆ Altman จะจัดการเอง อีก 47 วันจะมีสินค้าชื่อ ChatGPT 6 Recurd ออกมาทำให้ทุกคนทึ่ง โดยแทนที่จะเป็นโมเดลที่ดีกว่า จะเอาโมเดลเก่ามารีไซเคิล แล้วซื้อแพ็กเกจ ChatGPT 6 เพิ่มอัตโนมัติ 10 รายการเพื่อให้ทำงานได้ดีขึ้นมาก จากนั้นก็อัปเกรดให้เร็วขึ้นพร้อมเพิ่มประสิทธิภาพครั้งละ 1% แบบวนซ้ำ ง่ายมากที่จะประเมินการเติบโตแบบเหนือทวีคูณต่ำเกินไป พอถึงต้นปี 2026 บริษัทจะขายไลเซนส์ได้เป็นล้านล้านชุดโดยไม่มีข้อจำกัดด้านจำนวนลูกค้ามนุษย์ Altman ยังวางแผนเหรียญเฉพาะระบบ ระบบปล่อยกู้อัตโนมัติ และตลาดซื้อขายฟิวเจอร์สคอมพิวต์สำหรับทั้งหมดนี้ไว้แล้ว โลกใหม่อย่างแท้จริง เป็นโลกใหม่ชื่อว่า "Alt/World!"

  • สงสัยว่าทำไมดาต้าเซ็นเตอร์ถึงวัดเป็นหน่วย "กิกะวัตต์" แทนที่จะวัดจากสมรรถนะการคำนวณจริงอย่าง flops เป็นต้น อันที่จริงฉันเองก็คิดว่าดาต้าเซ็นเตอร์ขนาด "1 GW" อาจสร้างได้ด้วย CPU 6502 ตัวเดียวกับกองตัวต้านทาน

    • เหตุผลคือความจุทางไฟฟ้าและระบบระบายความร้อนเป็นข้อจำกัดใหญ่ที่สุดในการสร้างดาต้าเซ็นเตอร์ ส่วนสมรรถนะคอมพิวต์เปลี่ยนแปลงไปมากตามกาลเวลา และในทางปฏิบัติ ถ้าอิงชิปสมัยใหม่อย่าง GB200 แล้ว 1GW จะให้พลังประมวลผลได้ราว 5 exaflops (ขึ้นอยู่กับความละเอียดและปัจจัยอื่น)

    • ช่วงนี้ฉันเองก็เพิ่งมีประสบการณ์ดูแลงาน HW/ดาต้าเซ็นเตอร์ขนาดเล็ก และพบว่าไม่ใช่แค่ GPU แต่สวิตช์ ไฟร์วอลล์ สตอเรจ ฯลฯ ต่างก็กินไฟและต้องการการระบายความร้อนมากเหมือนกัน พอเลยระดับหนึ่งไป ข้อจำกัดสำคัญไม่ใช่สมรรถนะสูงสุด, Hz หรือ GB แต่เป็นการจะอัดพลังงานเข้าไปได้มากแค่ไหนและระบายความร้อนออกสู่ภายนอกได้เท่าไร ตัวอย่างเช่นมีโครงการที่ท่าเรือซึ่งเผาผลาญไฟฟ้าส่วนเกินจากโซลาร์ด้วยตัวต้านทานขนาดใหญ่ ปัญหาคือการเชื่อมต่อเข้ากับโครงข่ายไฟฟ้าแรงดันสูงอย่างปลอดภัยและระบายความร้อนออกอย่างรวดเร็ว

    • หน่วยสมรรถนะคอมพิวต์ต่างกันไปตามฮาร์ดแวร์และเวิร์กโหลด จึงแทบไม่มีทางมีมาตรวัดสากลได้ ความจุพลังงานจึงพอมองได้ว่าเป็นค่าประมาณของความสามารถคอมพิวต์สูงสุดที่เป็นไปได้ ณ เวลานั้น และยังครอบคลุมตัวแปรหลากหลาย เช่น ตามภูมิภาคหรือวิธีการทำความเย็น

    • คำนวณแบบคร่าวๆ ด้านหลังซองจดหมาย 1GW สามารถรันชิป 6502 ได้ประมาณ 1.43 พันล้านตัว

    • เหตุผลที่หน่วยจริงเป็น "พลังงาน" ก็เพราะมันคือหน่วยสุดท้ายของต้นทุนทุกอย่าง ไม่ว่าจะเป็นประสิทธิภาพคอมพิวต์ การลงทุนอุปกรณ์ หรือความสามารถในการขยายระบบ

  • อยากเน้นว่ามากกว่าทุนตั้งต้นในการสร้างดาต้าเซ็นเตอร์ ผู้ให้บริการไฟฟ้าต่างหากที่เป็นข้อจำกัดจริงของอุตสาหกรรม ตอนนี้โครงข่ายไฟฟ้าในอเมริกาเหนือขาดแคลนอุปทานอย่างมาก ควรมีการตรวจสอบเชิงลึกว่าจริงๆ แล้วมีกำลังไฟสำรองมากน้อยแค่ไหนที่ดาต้าเซ็นเตอร์ขนาดใหญ่จะใช้ได้ และจะเพิ่มกำลังผลิตได้เมื่อไร การสร้างโรงไฟฟ้าเป็นธุรกิจที่ช้ามาก แผนลงทุนดาต้าเซ็นเตอร์ส่วนใหญ่ดูเหมือนตั้งอยู่บนสมมติฐานว่าความจุไฟฟ้าจะ "โผล่มาอย่างมีเวทมนตร์" หรือไม่มีการแข่งขันแย่งชิงทรัพยากรนี้อยู่เลย

    • ถึงขั้นไม่เข้าใจว่าทำไมเรื่องนี้ถึงไม่ถูกพูดถึงมากกว่านี้
  • ข้ออ้างที่ว่า "OpenAI จะทุ่ม $4 แสนล้านในปีข้างหน้า" มีปัญหา ความจริงแล้วไม่ใช่ OpenAI ลงทุนตรง แต่เป็น Oracle และรายอื่นๆ ที่สร้างดาต้าเซ็นเตอร์ แล้ว OpenAI จ่ายค่าเช่าแทน เพราะเป็นสัญญาเช่า จึงไม่จำเป็นต้องถือเงินค่าก่อสร้างทั้งหมดตั้งแต่ต้น ตัวอย่างคือ OpenAI จะเริ่มจ่ายค่าเช่าระดับปีละราว $3 หมื่นล้านตั้งแต่ปี 2027/2028 และค่อยๆ เพิ่มขึ้นตลอด 5 ปี NVIDIA และ AMD ก็ทยอยได้เงินลงทุนคืนตาม milestone หรือการนำชิปเข้าใช้ โครงสร้างนี้จริงๆ คือฝั่งซัพพลายเออร์กำลัง "เดิมพัน" กับการเติบโตของ OpenAI และให้เครดิตแก่บริษัทด้วย มันอาจแปลกและเปราะบางมาก แต่การบอกว่า "ต้องมีเงินสด $4 แสนล้านเดี๋ยวนี้" เป็นตรรกะที่ผิด ประเด็นจริงคือรายได้ของ OpenAI จะโตไปถึงอย่างน้อย $6 หมื่นล้านถึง $7 หมื่นล้านภายในปี 2028~2029 ได้หรือไม่ ข้ออ้างเดิมจึงไม่ตั้งอยู่บนฐานที่ถูกต้อง และความเสี่ยงที่แท้จริงอยู่ที่ไทม์ไลน์การดำเนินงานกับความคืบหน้าของการเติบโตด้านรายได้มากกว่า อ้างอิง: CNBC - OpenAI เดต้าเซ็นเตอร์, w.media - สัญญาเช่ากับ Oracle, CNBC - ความร่วมมือกับ Nvidia, TechCrunch - AMD จัดหาชิป

    • Ed Zitron ในฐานะนักวิเคราะห์มีข้ออ้างที่ผิดและข้อผิดพลาดเชิงข้อเท็จจริงหลายจุด เขายังเขียนโพสต์ยืนกรานว่าต้นทุนการ inference เพิ่มขึ้นด้วย บทความที่เกี่ยวข้อง

    • WAU (ผู้ใช้งานประจำสัปดาห์) ของ OpenAI กำลังเติบโตในอัตรารายปีราว 122.8% แต่ลดลงจาก 461.8% เมื่อ 10 เดือนก่อน ถ้าอัตราการเติบโตทรงตัว ภายในปลายปี 2028 บริษัทอาจแตะรายได้ต่อปีสูงสุด $1.04 แสนล้าน และมี WAU 6.4 พันล้านคน แม้จะรับประกันตัวเลขนี้ไม่ได้ แต่ Oracle และ Nvidia ก็เหมือนต้องพยุงราคาหุ้นของตัวเองบนสมมติฐานดังกล่าว ในความเป็นจริงอัตราการชะลอตัวของการเติบโตอยู่ราว 20% ทุกสองเดือน ดังนั้นช่วงเวลาเดียวกันของปีหน้าอาจหวังได้เพียง WAU 1.2 พันล้าน และปีถัดไป 1.4 พันล้านเท่านั้น ซึ่งยังต่ำกว่า Google และ Facebook อยู่มาก

    • เนื่องจาก OpenAI ใช้โครงสร้างแบบ "ประคองตัวด้วยการเช่า" ความเสี่ยงที่แท้จริงจึงค่อยๆ ถูกผลักไปยังนักลงทุนลำดับหลัง หรือประชาชนและผู้ถือกรมธรรม์บำนาญมากขึ้น ดู Turtles all the way down

  • เมื่อดู Sora 2 และประเด็นถกเถียงเรื่องแอนิเมชัน ก็ยืนยันได้ว่าซีซันของแอนิเมชันโทรทัศน์ทั่วไปหรือภาพยนตร์หนึ่งเรื่องสามารถผลิตได้ด้วยงบประมาณราว $10~20 ล้าน แม้จะไม่รู้ว่าค่าใช้จ่ายในการพัฒนา Sora 2 จริงๆ เท่าไร แต่ถ้ามันอยู่ระดับหลายหมื่นล้านถึงหลักล้านล้าน ก็สามารถสร้างแอนิเมชันแบบนี้ได้หลายพันเรื่อง มันอาจห่างจาก LLM อยู่บ้าง แต่สุดท้ายถึง AI จะแทนแรงงานผู้เชี่ยวชาญได้ ก็ยังสงสัยว่าผลตอบแทนต่อการลงทุนจะสมเหตุสมผลเพียงนั้นหรือไม่

    • ที่จริงคิดว่าค่าใช้จ่ายในการพัฒนา Sora 2 น่าจะต่ำกว่าระดับหลายพันล้านมาก

    • ยังสงสัยว่า Sora 2 จะใช้สร้าง "รายการ" จริงได้หรือไม่ เท่าที่ได้ยินมามีแต่เรื่องวิดีโอสั้น ส่วนการทำเป็นซีรีส์เต็มรูปแบบดูเหมือนยังต้องมีการก้าวกระโดดทางเทคนิคอีกมาก

    • ด้วยเครื่องมืออย่าง Sora และ Google Flow ในอนาคต คนสมัครเล่นก็น่าจะผลิตคอนเทนต์คุณภาพระดับมืออาชีพได้ในต้นทุนต่ำ การสร้างแอนิเมชันหลายพันเรื่องจึงไม่ใช่สิ่งที่เป็นไปไม่ได้

    • ฉันคิดว่าการลงทุนขนาดมหึมาแบบนี้จะสมเหตุสมผลได้ก็ต่อเมื่อมีบางอย่างมาชดเชยมากกว่าผลตอบแทนจากแชตบอตธรรมดา

  • อยากรู้ว่าเงินจริงจำนวนมากขนาดนี้จะถูกเทเข้าไปสู่โรงงานไฟฟ้า ดาต้าเซ็นเตอร์ การออกแบบและผลิตซิลิคอนได้เร็วแค่ไหน และอุตสาหกรรมโครงสร้างพื้นฐานจะเผชิญช่วงฟองสบู่ที่พองเร็วแล้วปรับฐานครั้งใหญ่หรือไม่ หรือจะเกิดการเปลี่ยนผ่านระดับปฏิวัติอุตสาหกรรมจริงๆ พร้อมทั้งมีข้อเสนอชวนร่วมก่อตั้งสตาร์ตอัปโครงสร้างพื้นฐานระบบฝังตัวความปลอดภัยสูง

    • นอกจากการรีไซเคิลทองคำแล้ว ฉันคิดว่าในอุตสาหกรรมเทคไม่มีอะไรที่ "ยั่งยืน" อย่างแท้จริง
  • มีคำถามว่าเหตุใด Anthropic จึงดูไม่มีความต้องการเงินทุนระดับเดียวกัน

    • Anthropic ระมัดระวังเรื่องการเปิดเผยต้นทุนมากกว่า Ed Zitron กำลังตามแกะค่าใช้จ่าย GCP อยู่ในตอนนี้

    • นี่เป็นการถกเถียงเกี่ยวกับการสร้าง "AGI" จึงแยกจากบริการปัจจุบันของ Anthropic และก็ไม่มีหลักประกันด้วยว่าสติปัญญาจะเพิ่มขึ้นได้ไม่จำกัดตามปริมาณคอมพิวต์

    • จริงๆ แล้ว Anthropic ก็น่าจะต้องการการลงทุนใกล้เคียงกัน เพียงแต่ผู้เขียนดูจะโฟกัสที่ OpenAI เป็นหลัก

    • ถ้าโมเมนตัมการเติบโตยังดำเนินต่อไป Anthropic ก็จะต้องการการลงทุนขนาดใหญ่เช่นกัน

    • ดูเหมือน Anthropic จะใช้ TPU อย่างจริงจังมากขึ้นในช่วง overflow ช่วงที่ประสิทธิภาพของ Claude ลดลงล่าสุดน่าจะเกิดจากบั๊กของ TPU และความต่างด้าน implementation ทำให้พอจะคาดเดาได้บ้างเกี่ยวกับการใช้งานแบบผสมระหว่าง Nvidia/TPU ของพวกเขา ส่วน OpenAI ยังไม่ค่อยมีข่าวว่าเอาเวตไปกระจายบนโครงสร้างพื้นฐานของ Google

  • อยากถามว่าโมเดล capex ของดาต้าเซ็นเตอร์จะเปลี่ยนไปอย่างไร หากเป้าหมายคือใช้ทรัพยากรให้ได้ 100% และให้ความสำคัญกับประสิทธิภาพของ capex มากกว่า node uptime (ความพร้อมใช้งาน) คิดว่ายังมีช่องให้ต้นทุนลดลงได้ถึงระดับเลขหนึ่งหรือสองหลัก ขึ้นอยู่กับการปรับมาร์จินของ NVidia เป็นต้น ถ้า OpenAI สร้างดาต้าเซ็นเตอร์ความน่าเชื่อถือต่ำกว่าปกติบนทำเลราคาถูก ก็ดูพอมีความเป็นไปได้บ้าง อย่างไรก็ตาม OpenAI มีแนวโน้มสูงที่จะเทเงินมากกว่า $4 หมื่นล้านลงในดาต้าเซ็นเตอร์ภายในปีหน้า ดาต้าเซ็นเตอร์แบบดั้งเดิมอ่อนไหวต่อเรื่องความพร้อมใช้งานมาก แต่ในสเกลระดับนี้ คิดว่า OpenAI อาจไม่แคร์ uptime ของแร็กหรือทั้งโรงงานมากนัก

    • คนที่ลองคำนวณตัวเลขเองยังคงต้องการความน่าเชื่อถือระดับ Tier IV และยังไม่เคยเห็นกรณีที่ดาต้าเซ็นเตอร์ขุดคริปโตแบบ "Tier 0" (ความน่าเชื่อถือต่ำสุด) ถูกแปลงมาใช้งาน AI จริงๆ