3 คะแนน โดย GN⁺ 2025-09-23 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • OpenAI ประกาศแผนสร้าง ศูนย์ข้อมูล AI ขนาดอย่างน้อย 10GW บนพื้นฐานของ ระบบ NVIDIA เพื่อวางโครงสร้างพื้นฐาน AI รุ่นถัดไป
  • ในกระบวนการนี้ NVIDIA ให้คำมั่นว่าจะทยอยลงทุน สูงสุด 1 แสนล้านดอลลาร์ ต่อการติดตั้งแต่ละระดับกิกะวัตต์
  • ระบบขนาด 1GW ชุดแรกมีกำหนดเริ่มใช้งานบน แพลตฟอร์ม Vera Rubin ใน ช่วงครึ่งหลังของปี 2026
  • ความร่วมมือครั้งนี้รวมถึง การปรับแต่งร่วมกันระหว่างฮาร์ดแวร์และซอฟต์แวร์ ของ OpenAI และ NVIDIA และยังช่วยเสริมความร่วมมือเดิมกับพันธมิตรอย่าง Microsoft, Oracle, SoftBank และ Stargate
  • คาดว่าจะเป็นก้าวสำคัญที่ช่วยให้ OpenAI เดินหน้าไปสู่ AGI โดยอาศัยฐานผู้ใช้ มากกว่า 700 ล้านคนต่อสัปดาห์ และการนำไปใช้ในภาคธุรกิจทั่วโลก

ภาพรวมความร่วมมือ

  • OpenAI และ NVIDIA ประกาศหนังสือแสดงเจตจำนง (LOI) สำหรับการเป็นพันธมิตรเชิงกลยุทธ์เพื่อวางระบบขนาดอย่างน้อย 10GW
    • มีเป้าหมายเพื่อจัดหาโครงสร้างพื้นฐานสำหรับการฝึกและรันโมเดลรุ่นถัดไปของ OpenAI
    • ถูกนำเสนอว่าเป็นส่วนหนึ่งของความก้าวหน้าแบบเป็นขั้นตอนสู่ซูเปอร์อินเทลลิเจนซ์
  • NVIDIA เปิดเผยแผนลงทุนสูงสุด 1 แสนล้านดอลลาร์ ให้สอดคล้องกับกระบวนการติดตั้ง ซึ่งรวมถึงศูนย์ข้อมูลและการขยายกำลังไฟฟ้า
  • ระยะแรกมีกำหนดออนไลน์ใน ช่วงครึ่งหลังของปี 2026 บนแพลตฟอร์ม NVIDIA Vera Rubin

คำกล่าวสำคัญ

  • Jensen Huang (CEO ของ NVIDIA)
    • กล่าวถึงประวัติความร่วมมือกับ OpenAI ตลอด 10 ปี และเน้นย้ำเส้นทางสู่จุดเปลี่ยนของ ChatGPT
    • กล่าวว่า “การติดตั้งโครงสร้างพื้นฐาน 10GW คือการก้าวกระโดดที่จะเปิดยุคถัดไปของปัญญา”
  • Sam Altman (CEO ของ OpenAI)
    • เน้นว่า “ทุกอย่างเริ่มต้นจาก compute” และจะเป็นรากฐานของเศรษฐกิจในอนาคต
    • อธิบายว่าจะร่วมกับ NVIDIA ผลักดันความก้าวหน้าครั้งใหม่ของ AI และการใช้งานในวงกว้างสำหรับมนุษยชาติและภาคธุรกิจ
  • Greg Brockman (President ของ OpenAI)
    • กล่าวว่าบริษัทได้สร้าง AI ที่ผู้คนหลายร้อยล้านใช้งานอยู่บนแพลตฟอร์ม NVIDIA
    • ระบุว่าการติดตั้งระดับ 10GW จะช่วย ขยายขีดจำกัดของปัญญาและกระจายประโยชน์ของเทคโนโลยี

ขอบเขตความร่วมมือ

  • NVIDIA ได้รับการแต่งตั้งเป็น พันธมิตรเชิงกลยุทธ์ด้าน compute และเครือข่าย ของ OpenAI
  • ทั้งสองบริษัทจะ ปรับแต่งร่วมกัน ระหว่างโมเดลและซอฟต์แวร์โครงสร้างพื้นฐานของ OpenAI กับฮาร์ดแวร์และซอฟต์แวร์ของ NVIDIA
  • มีแผนขยายซินเนอร์จีกับเครือข่ายความร่วมมือเดิม เช่น Microsoft, Oracle, SoftBank และ Stargate

สถานะและความหมายต่อ OpenAI

  • ปัจจุบัน OpenAI มี ผู้ใช้งานแอ็กทีฟรายสัปดาห์มากกว่า 700 ล้านคน และได้รับการนำไปใช้อย่างแพร่หลายในหมู่บริษัทระดับโลก ธุรกิจขนาดเล็กและกลาง และนักพัฒนา
  • ความร่วมมือครั้งนี้ถูกประเมินว่าเป็นรากฐานในการเร่งภารกิจสร้าง AGI ที่เป็นประโยชน์ต่อมนุษยชาติทั้งหมด
  • บริษัทมีแผนสรุปรายละเอียดเงื่อนไขความร่วมมือเพิ่มเติมภายในไม่กี่สัปดาห์ข้างหน้า

1 ความคิดเห็น

 
GN⁺ 2025-09-23
ความเห็นจาก Hacker News
  • น่าสนใจมากที่พูดกันเป็นหน่วยกิกะวัตต์ ตลอด 3 ปีที่ผ่านมา มีประเด็นถกเถียงกันมากว่า AI ทำให้ค่าไฟของครัวเรือนและธุรกิจขนาดเล็กพุ่งขึ้นเพราะดาต้าเซ็นเตอร์ ถ้า 10GW เท่ากับปริมาณที่ชิคาโกกับนิวยอร์กใช้รวมกันจริง ก็ต้องคุยกันอย่างจริงจังแล้วว่าจะหาไฟฟ้าปริมาณนี้มาจากไหน ท่ามกลางสภาพโครงข่ายไฟฟ้าและโครงสร้างพื้นฐานของสหรัฐที่ย่ำแย่อยู่แล้ว ทุกวันนี้ต้นทุนก็ถูกผลักไปให้ภาคครัวเรือนเพื่อให้ดาต้าเซ็นเตอร์ได้ไฟราคาถูก ซึ่งความไม่เท่าเทียมนี้ก็เป็นปัญหาเหมือนกัน ค่าไฟบ้านในสหรัฐขึ้นจาก 13 เซนต์เป็น 19 เซนต์ภายใน 5 ปี หรือเพิ่มขึ้น 46% ซึ่งไม่ยุติธรรมและไม่ยั่งยืนเลย คำถามคือ 10GW นี้จะมาจากไหน และใครจะเป็นคนจ่ายต้นทุน? อ้างอิงเพิ่มเติมคือ เวลาพูดถึงขนาดของดาต้าเซ็นเตอร์ก็มักจะใช้เกณฑ์พลังงานไฟฟ้า (วัตต์) อยู่แล้ว แต่ครั้งนี้ตัวเลขดังกล่าวมาจากมุมของผู้จัดหาคอมพิวต์อย่าง Nvidia ไม่ใช่เจ้าของหรือผู้ดำเนินการดาต้าเซ็นเตอร์โดยตรง นั่นยิ่งชี้ว่าประเด็นหลักอยู่ที่การใช้ไฟฟ้า การขยายโครงข่ายไฟฟ้า และภาระต้นทุน
    • ผมทำงานอยู่ในอุตสาหกรรมดาต้าเซ็นเตอร์ การพูดถึงขนาดดาต้าเซ็นเตอร์ด้วยการใช้พลังงานไฟฟ้า (เช่น 200MW) เป็นมาตรฐาน อุปกรณ์คอมพิวต์อัปเกรดได้ทุก 5 ปี แต่ความต้องการพลังงานแทบคงที่ หน่วยแบบนี้เลยสะท้อนชัดว่า AI ก็คือกระบวนการกลั่นพลังงานรูปแบบหนึ่ง
    • สำหรับคำกล่าวที่ว่า “ไม่ยุติธรรมและไม่ยั่งยืน” ถ้าเทียบกับอิตาลีแล้ว ค่าไฟในสหรัฐยังถูกกว่าครึ่งหนึ่ง ผมเลยคิดว่าสำหรับประเทศที่ร่ำรวยที่สุดในโลกอย่างสหรัฐ เรื่องนี้ไม่น่าจะเป็นสิ่งที่รับมือไม่ได้
    • โครงสร้างพื้นฐานดาต้าเซ็นเตอร์จัดสรรกันด้วยหน่วยวัตต์มาโดยตลอด จากตัวเลขนี้จึงค่อยแตกออกไปเป็นภาระโหลดฝั่ง IT ระบบทำความเย็น และการคำนวณอื่น ๆ ทั้งหมด
    • ผู้ให้บริการสาธารณูปโภคต้องชี้แจงต่อหน่วยงานกำกับดูแลเสมอเวลาจะขึ้นราคา สาเหตุหลักของต้นทุนที่เพิ่มขึ้นคือการเปลี่ยนผ่านไปสู่พลังงานหมุนเวียน การให้ดาต้าเซ็นเตอร์ขนาดใหญ่รับภาระต้นทุนที่จำเป็นโดยตรงนั้นทำได้ไม่ยากนัก แต่การผลิตไฟฟ้าด้วยตัวเองเป็นปัญหาที่ซับซ้อนกว่า เมื่อก่อนยังดึงไฟราคาถูกจากพลังน้ำแม่น้ำโคลัมเบียมาใช้ได้ แต่ตอนนี้เริ่มแข่งขันกับการใช้ไฟฟ้าภาคที่อยู่อาศัยโดยตรงแล้ว ถึงอย่างนั้นต้นทุนการผลิตไฟฟ้าก็ยังเป็นเพียงส่วนน้อยมากของบิลรวมทั้งหมด
    • การขึ้นราคา 8% ต่อปีถือว่าสูง แต่ก็ต้องคำนึงถึงวิกฤตราคาเชื้อเพลิงทั่วโลกในปี 2022 ด้วย เช่น ในออสเตรเลีย ค่าไฟปีนั้นขึ้นเป็นเท่าตัว โดยเฉลี่ยในระยะยาวแล้วอัตราเพิ่มอยู่ราว 6% ต่อปี สูงกว่าการขึ้นค่าจ้างที่ 4% เพียงเล็กน้อย ค่าไฟยังคงเป็นสัดส่วนเล็กของรายได้ครัวเรือน การเพิ่มขึ้นของค่าจ้างดูดซับผลกระทบไปได้เกือบหมด แน่นอนว่าสำหรับผู้มีรายได้น้อยอาจกระทบหนัก แต่สำหรับคนส่วนใหญ่ไม่ได้สร้างแรงกระเพื่อมมากนัก
  • ถ้อยคำทั้งหมดในข่าวประชาสัมพันธ์เกี่ยวกับ “landmark strategic partnership” คลุมเครือและเป็นภาษาประชาสัมพันธ์บริษัทมากเกินไป ดูเหมือนเป็นการประกาศประมาณว่า “สักวันหนึ่งเราจะทำอะไรบางอย่างที่ยิ่งใหญ่มาก” มากกว่า
    • หุ้น Nvidia ขึ้นไป $6 วันนี้ ดังนั้นในแง่ผลของการประกาศก็ถือว่าทำได้ตามเป้า โดยพื้นฐานแล้วมันคือการบอกนักลงทุนว่า “เรากำลังจะทำเรื่องใหญ่ ขอเงินเพิ่มหน่อย” และดูเหมือนนักลงทุนจำนวนมากก็ตอบรับ
  • ผมสงสัยว่าระดับกิกะวัตต์ของระบบ Nvidia นี้หมายถึงอะไรแบบเป็นรูปธรรม ผมลองประมาณเองและให้ GPT ช่วยคำนวณ ดูเหมือนอาจเกือบแตะ 10 ล้านเครื่องเลยทีเดียว ขนาดมหาศาลจริง ๆ
    • ตัวเลขระดับนี้ใหญ่แบบเหลือเชื่อแน่นอน ในระดับระบบ H100 หนึ่งตัวกินไฟราว 1~2kW ดังนั้นถ้าคิดที่ 2kW ก็จะได้ประมาณ 5 ล้านตัว ตัวอย่างเช่น แร็ก NVL72 ใช้ 120kW สำหรับ 72 ชิป หรือเฉลี่ย 2kW ต่อชิปรวมระบบระบายความร้อน
    • จะพูดว่า “ระดับหลายล้านเครื่อง” ก็ไม่ผิด จำนวนจริงขึ้นกับสภาพแวดล้อมของโครงสร้างพื้นฐาน และในความเป็นจริงตัวเร่งความเร็วเป็นเพียงส่วนหนึ่งของการใช้ไฟทั้งหมด แต่ขนาดโดยรวมชัดเจนว่าอยู่ในระดับหลายล้านเครื่อง
    • ผมคำนวณคร่าว ๆ ก่อนอ่านคอมเมนต์เหมือนกัน ถ้าคิด GPU ตัวละ 600W จะได้ 10,000,000,000/600 = 16.66 ล้านตัว แน่นอนว่าพอเอาปัจจัยอื่นมาคิดด้วยก็อาจต่างจากของจริงมาก แต่มันเป็นจุดตั้งต้นแบบหยาบ ๆ ยังไม่รวม overhead ความร้อน หรือประสิทธิภาพการแปลงพลังงาน
    • ถ้าคิด 3MW ต่อ GPU 1,000 ตัว งั้น 10GW ก็จะอยู่ที่ประมาณ 3.33 ล้านตัว
    • ผมยังสงสัยด้วยว่าจะต้องใช้สายเคเบิลชนิดไหนและยาวแค่ไหนเพื่อเชื่อม GPU พวกนี้ทั้งหมด แต่ก่อนนึกว่าแค่เสียบลงแร็กโลหะธรรมดา พอเห็นรูปดาต้าเซ็นเตอร์จริงกลับมีสายสีน้ำเงินเชื่อมกันเต็มไปหมด
  • ผมรู้สึกว่าเทคโนโลยี LLM (โมเดลภาษาขนาดใหญ่) เลยมาถึงจุดพีคแล้ว ตอนนี้มันเหมือนโฆษณาฮีตเตอร์ทำความร้อนที่ทำเหมือนมีความก้าวหน้าที่ยิ่งใหญ่มาก ทั้งที่เทคโนโลยีกลับนิ่ง ๆ แค่ทำม้าที่วิ่งเร็วขึ้นเท่านั้น ตลาดควรจัดการสถานการณ์แบบนี้อย่างมีเหตุผลมากกว่านี้
    • ฟองสบู่ AI มีโอกาสแตกแบบ spectacular ได้แน่นอนสักวันหนึ่ง แต่การบอกว่านี่คือจุดสูงสุดของ LLM ก็เหมือนกับการบอกว่าอินเทอร์เน็ตถึงจุดพีคไปแล้วในช่วงปี 99~01 ทั้งที่หลังจากนั้นยังมีนวัตกรรมอีกมากอย่างสมาร์ตโฟน และ LLM แบบข้อความเองก็ยังไม่ได้หยุดนิ่ง AI ไม่ได้มีแค่ข้อความ แต่ AI ในโลกจริงอย่างรถยนต์ไร้คนขับก็กำลังพัฒนาแบบเอ็กซ์โปเนนเชียลด้วย
    • ตอนฟองสบู่ดอตคอมก็มีภาวะร้อนแรงเกินจริงมาก ก่อนจะ crash ครั้งใหญ่ และบริษัทที่รอดอย่าง Amazon ก็กลายเป็นยักษ์ใหญ่ ผมหวังว่ากระแส AI รอบนี้จะทิ้งผลลัพธ์ที่มีความหมายแบบนั้นไว้เหมือนกัน
    • ผมคิดว่าการปรับฐานของตลาดจะมาในไม่ช้า แต่เหมือนอินเทอร์เน็ตที่ยังมีคุณค่าแม้หลังดอตคอมล่ม ผมก็ยังคาดหวังว่าระยะยาวมันจะยังมีคุณค่าอยู่
    • มุมมองนี้มองว่า “เลยจุดไปแล้ว” ในความหมายที่ว่าความคาดหวังเชิงบวกทั้งหมดถูกสะท้อนเข้าไปในราคาแล้ว
  • น้ำเป็นทรัพยากรจำเป็นที่ขาดแคลนในหลายพื้นที่ และเคยมีหลายกรณีที่ดาต้าเซ็นเตอร์ดูดใช้น้ำในช่วงภัยแล้ง ผมสงสัยว่า EPA ของสหรัฐยังสามารถส่งเสียงเรื่องการกำกับดูแลการใช้น้ำของโครงการแบบนี้ได้อยู่หรือไม่
    • น้ำบาดาลในแถบมิดเวสต์ถูกใช้กับการผลิตเอทานอลมากกว่า และในแคลิฟอร์เนียก็ใช้กับการปลูกอัลมอนด์มากกว่า ทั้งสองอุตสาหกรรมนี้ส่งผลต่อทรัพยากรน้ำมากกว่ามาก และมีประโยชน์จริงน้อยกว่าดาต้าเซ็นเตอร์ด้วยซ้ำ ผมอยากให้ไปโฟกัสประเด็นที่ร้ายแรงกว่านี้มากกว่า
    • เรื่องการใช้น้ำของดาต้าเซ็นเตอร์ไม่ใช่ปัญหาใหญ่เท่าที่สื่อพูดกัน แม้บางพื้นที่จะมีปัญหาเฉพาะจุด แต่ประเด็นสำคัญกว่าคือเรื่องไฟฟ้า
    • ผมสงสัยว่าการใช้น้ำของดาต้าเซ็นเตอร์จริง ๆ แล้วไม่ได้สิ้นเปลืองมาก เพราะเป็นระบบหล่อเย็นแบบหมุนเวียน แค่ปั๊มวนไปมาใช่ไหม
  • แทบไม่มีใครพูดถึงความต้องการไฟฟ้าของสิ่งปลูกสร้างขนาดมหึมาแบบนี้เลย ค่าไฟที่ผมจ่ายในนิวเจอร์ซีย์กับ PSEG ก็ขึ้นไปเกิน 50% แล้ว ทั้งที่ก็บอกกันว่าความต้องการพุ่งเพราะดาต้าเซ็นเตอร์ แต่ในความเป็นจริงกลับไม่ได้ใช้โครงสร้างค่าไฟที่สูงกว่ากับดาต้าเซ็นเตอร์ บทความที่เกี่ยวข้อง
    • การขึ้นราคาลักษณะนี้เป็นตัวอย่างของสภาพการเมืองในนิวเจอร์ซีย์ที่ไม่ใส่ใจผู้บริโภค สุดท้ายดาต้าเซ็นเตอร์ก็จะไปรวมกันอยู่ในพื้นที่ที่มีค่าไฟแข่งขันได้
    • คนที่ปล่อยให้เกิดเรื่องนี้ก็คือรัฐบาลของรัฐ พวกเขาปฏิเสธได้ง่าย ๆ แต่กลับอนุญาต
  • Google ใช้ไฟปีละ 15TWh (ประมาณ 1.7GW) แต่แผนใหม่ของ OpenAI และ Nvidia จะใช้ไฟมากกว่านั้น 5.8 เท่า (5.8 Googles) ถ้าขนาดใหญ่ระดับนี้จริง ก็จะเป็นโอกาสมหาศาลสำหรับชิปคำนวณ AI กินไฟต่ำมากเมื่อเทียบกับ GPU ปัจจุบัน มีความพยายามทางเทคนิคหลายแบบอยู่แล้ว เลยน่าติดตาม
    • อยากเห็นตัวอย่างที่เป็นรูปธรรมของชิป AI กินไฟต่ำมาก รวมถึงตัวเลขว่าประหยัดไฟได้มากแค่ไหนจริง
    • แค่ดาต้าเซ็นเตอร์เดี่ยวนี้แห่งเดียวก็อาจรวมพลังคอมพิวต์ได้มากพอสำหรับทำ 51% attack กับคริปโตเคอร์เรนซีหลัก ๆ ได้เลย ถ้าตลาด AI กลายเป็นฟองสบู่แล้วดับลงในตอนท้าย มันก็อาจเป็นประกันที่น่าสนใจแบบหนึ่ง
  • ผมกำลังรออ่านบทวิเคราะห์ประเด็นนี้จาก Ed Zitron แบบเงียบ ๆ อยู่
    • เมื่อผู้บริหารวัดผลสำเร็จจาก output ไม่ได้ ก็จะไปวัดจาก input แทน และนั่นทำให้ประสิทธิภาพแย่ลง การบังคับให้พนักงานกลับเข้าออฟฟิศก็เป็นส่วนต่อเนื่องจากแนวคิดเดียวกัน ตอนนี้สำหรับ OpenAI และ Nvidia เกณฑ์ความสำเร็จกลับกลายเป็นกิกะวัตต์ที่ใส่เข้าไป มากกว่าผลลัพธ์ AI ที่จับต้องได้
    • โพสต์ของ The Ed Zitron เอง
    • มีคนจำนวนไม่น้อยที่ขาดทุนหนักเพราะเชื่อมุมมองเชิงลบของ Ed Zitron
  • มีการตั้งสมมติฐานว่าดาต้าเซ็นเตอร์นี้จะต้องใช้ที่ดินขนาดเท่า Monaco (740 เอเคอร์) โดยอิงจาก 80kW/แร็ก
    • Monaco เล็กมาก ขนาดประมาณสวน Tempelhofer ในใจกลางเบอร์ลินเท่านั้นเอง
    • จะอธิบายว่าใหญ่ประมาณโรงงาน BYD หนึ่งแห่งก็ได้เหมือนกัน
    • Monaco มีพื้นที่ 2 ตารางกิโลเมตร ถ้าคิดว่าแร็กหนึ่งตู้ใช้ 1 ตารางเมตร พื้นที่ที่ต้องใช้จริงจะอยู่ที่ 12 เฮกตาร์ หรือประมาณสนามฟุตบอล 17 สนาม (กรณีวางชั้นเดียว) ผมเลยคิดว่าดาต้าเซ็นเตอร์อาจซ้อนในแนวตั้งได้ด้วย มีใครนอกจากผมที่ไปค้นขนาดของ Monaco ไหม Monaco ในวิกิ คำนวณพื้นที่โดยตรง
    • คุณสามารถใส่ Monaco ได้ 4.8 ล้านแห่งลงในพื้นที่ทั้งสหรัฐ
  • เครื่องปฏิกรณ์ของเรือดำน้ำกองทัพเรือสหรัฐในยุค 1960 มีกำลัง 78MW ดังนั้น 10GW ก็เท่ากับเรือดำน้ำพลังงานนิวเคลียร์ 128 ลำ
    • ถ้าจะให้เห็นภาพง่ายขึ้น นี่เท่ากับ 2% ของการใช้ไฟฟ้าเฉลี่ยทั้งประเทศของสหรัฐ และใกล้เคียงกับทั้งประเทศเนเธอร์แลนด์ที่มีประชากร 18 ล้านคน
    • โรงไฟฟ้าหนึ่งแห่งโดยทั่วไปอยู่ราว 1GW และโรงไฟฟ้านิวเคลียร์ก็ก่อสร้างช้า ดังนั้นสุดท้ายแล้วก๊าซธรรมชาติจึงน่าจะเป็นไปได้มากที่สุด ฟาร์มกังหันลมนอกชายฝั่งเองก็เข้าใกล้ขีดจำกัดที่ 1.5GW แล้ว แม้แต่ระบบส่งไฟฟ้า DC 525kV ระดับใหญ่ก็ส่งได้สูงสุดเพียง 2GW ต่อสายเคเบิลหนึ่งเส้น ภาระโหลดเพิ่มอีก 10GW เพียงอย่างเดียวก็จะกระแทกโครงข่ายไฟฟ้าอย่างหนักและต้องการการลงทุนโครงสร้างพื้นฐานขนาดใหญ่ แค่ไปขอสายเคเบิล 525kV จากบริษัทใหญ่ ๆ ตอนนี้ก็คงได้ของหลังปี 2030 แล้ว
    • อีกด้านหนึ่ง ถ้าสมองมนุษย์ใช้ไฟประมาณ 20W งั้น 10GW ก็เทียบได้กับสมองของคน 500 ล้านคน เมื่อเทียบกับแมลงอย่างแมลงวันซึ่งประมวลผลข้อมูลได้ด้วยพลังงานน้อยมาก AI ปัจจุบันอย่าง LLM อาจเป็นแนวทางที่ไร้ประสิทธิภาพสุด ๆ ก็ได้ วันหนึ่งถ้ามีวิธีที่มีประสิทธิภาพกว่านี้มาล้มกระดาน อุปกรณ์ที่ลงทุนไว้ตอนนี้อาจหมดค่าทันที ฮ่า ๆ
    • เครื่องปฏิกรณ์ РБМК ขนาด 1GW ที่ปลอดภัยมาก 10 เครื่องก็เท่ากับ 10GW (ไม่มีความเสี่ยงระเบิด)
    • โรงไฟฟ้าหนึ่งแห่งก็ประมาณ 1GW และเพราะโรงไฟฟ้านิวเคลียร์สร้างช้า สุดท้ายแล้วโรงไฟฟ้าก๊าซธรรมชาติจึงมีแนวโน้มมากที่สุด