- เกี่ยวกับ การลงทุนเพิ่มขึ้นอย่างรวดเร็วในศูนย์ข้อมูลของบริษัทยักษ์ AI ระดับโลก IBM CEO Arvind Krishna ได้ตั้งคำถามอย่างรุนแรงต่อด้านความมีผลกำไร
- เขาชี้ว่าตามต้นทุนปัจจุบัน การสร้าง ศูนย์ข้อมูลขนาด 1 กิกะวัตต์ ต้องใช้เงินประมาณ 80,000 ล้านดอลลาร์สหรัฐ และบริษัทยักษ์ใหญ่หลายแห่งกำลังเดินหน้าโครงการระดับ 20~30 กิกะวัตต์
- เมื่อพิจารณาในระดับโลก มีการลงทุนโครงสร้างพื้นฐาน AI ขนาดประมาณ 100 กิกะวัตต์ โดยมีมูลค่ารวมประมาณ 8 ล้านล้านดอลลาร์สหรัฐ
- Krishna ชี้ว่าเมื่อคำนึงถึง การหักค่าเสื่อมราคา 5 ปีของชิป AI และเงินทุนลงทุนขนาดใหญ่แล้ว จะต้องมีผลกำไรปีละ 800 พันล้านดอลลาร์สหรัฐ เพื่อคุ้มต้นทุน ซึ่งในทางปฏิบัติแทบเป็นไปไม่ได้
- เขาเชื่อว่าในขณะนี้เทคโนโลยีปัจจุบันมีความน่าจะเป็นบรรลุ AGI (ปัญญาประดิษฐ์ทั่วไป) เพียง 0~1% และเน้นว่า LLM อย่างเดียวมีข้อจำกัด
การเติบโตของการลงทุนศูนย์ข้อมูล AI และข้อถกเถียงเรื่องความมีผลตอบแทน
- ในการแข่งขันเพื่อ AGI บริษัท AI ชั้นนำ กำลังทุ่มเงินเข้าไปในศูนย์ข้อมูลระดับพันล้านดอลลาร์
- Meta ระบุซ้ำๆ ในรายงานผลประกอบการล่าสุดว่าเกี่ยวข้องกับ "ความจุ (capacity)" และ "โครงสร้างพื้นฐาน AI"
- Google วางแผนสร้าง ศูนย์ข้อมูลบนฐานอวกาศ ในระยะยาว
- Krishna กล่าวว่า "การลงทุนเหล่านี้แทบไม่มีโอกาสได้ผลตอบแทนกลับมา"
- เขาชี้ว่านี่เป็นการคำนวณจาก "จุดปัจจุบัน" และยอมรับว่าต้นทุนในอนาคตยังไม่แน่นอน
การคำนวณต้นทุนและการวิเคราะห์ความคุ้มค่าโดย Krishna
- เขาอธิบายว่าการสร้าง ศูนย์ข้อมูลขนาด 1 กิกะวัตต์ ต้องใช้เงินราว 80 พันล้านดอลลาร์สหรัฐ
- หากบริษัทหนึ่งมีแผนขยายไปที่ 20~30 กิกะวัตต์ จะเกิดการใช้จ่ายด้านทุน (CAPEX) ถึง 1.5 ล้านล้านดอลลาร์สหรัฐ
- มีการลงทุนระดับประมาณ 100 กิกะวัตต์ ในระดับโลก โดยมูลค่าประมาณ 8 ล้านล้านดอลลาร์สหรัฐ
- ในกรณีเช่นนี้จำเป็นต้องมีผลกำไร 800 พันล้านดอลลาร์สหรัฐต่อปี เพื่อให้สามารถรับภาระเฉพาะดอกเบี้ยได้
- เขาออกความเห็นชัดเจนว่าคงไม่สามารถสร้างผลกำไรขนาดนั้นได้
ค่าเสื่อมราคาและความเสี่ยงในการลงทุน
- เขาชี้ว่า การหักค่าเสื่อมราคา 5 ปีของชิป AI เป็นความเสี่ยงหลัก
- เขากล่าวว่า "หลัง 5 ปี ก็ต้องเปลี่ยนชิปแล้วเติมใหม่"
- นักลงทุน Michael Burry ก็ชี้จุดอ่อนเรื่องการหักค่าเสื่อมราคาใน Nvidia ซึ่งเป็นปัจจัยหนึ่งที่จุดชนวนให้หุ้น AI ลดลง
- Krishna ประเมินว่าสิ่งนี้ทำให้ ROI (ผลตอบแทนจากการลงทุน) แย่ลงมากขึ้น
ความสงสัยต่อความเป็นไปได้ในการบรรลุ AGI
- Krishna ระบุว่าความน่าจะเป็นในการบรรลุ AGI ด้วยเทคโนโลยีปัจจุบันอยู่ที่ 0~1%
- เขาพูดว่า "หากไม่เกิดการปฏิวัติเทคนิคเพิ่มขึ้นก็เป็นไปไม่ได้"
- เขาเสนอว่า LLM (โมเดลภาษาใหญ่) อย่างเดียวมีข้อจำกัด และจำเป็นต้องผสมผสานกับ 'hard knowledge' เพื่อก้าวต่อ
- Elson Sutskever ของ OpenAI ยังเน้นย้ำว่า "ยุคของการขยายขนาด (scaling) ได้สิ้นสุดลง" และชี้ให้หันไปสู่การวิจัยมากขึ้น
มุมมองเชิงวิจารณ์จากภาคอุตสาหกรรม
- Marc Benioff มองการผลักดัน AGI ว่าเป็น "เหมือนการสะกดจิต" แสดงความไม่เชื่อ
- Andrew Ng กล่าวว่าความคาดหวังต่อ AGI "ถูกประเมินค่าสูงเกินไป"
- Mistral CEO Arthur Mensch ระบุว่า AGI คือการวางแผนเชิงการตลาด
สรุปมุมมองสุดท้ายของ IBM CEO
- Krishna เห็นว่าปัจจุบันเครื่องมือ AI กำลังสร้างมูลค่าหลายล้านล้านดอลลาร์ในความเป็นผลิตภาพขององค์กร
- อย่างไรก็ตาม เขาย้ำว่าการบรรลุ AGI จำเป็นต้องมีความก้าวหน้าทางเทคนิคที่เกินเส้นทาง LLM ปัจจุบัน
- เขาถือท่าทีระมงายว่า "แม้ทำได้ อาจมีแต่ระดับ 'อาจเป็นได้' เท่านั้น"
7 ความคิดเห็น
ผมเห็นด้วยว่าขนาดและแผนการลงทุนในศูนย์ข้อมูล AI ตอนนี้อาจมากเกินไป แต่แผนก็ยังเป็นเพียงแผนเท่านั้น และในสถานการณ์ที่ไม่มีใครคาดการณ์ความเร็วและทิศทางของพัฒนาการทางเทคโนโลยีได้ การตัดสินอย่างฟันธงแบบนี้มีความเสี่ยง และดูเหมือนจะไม่ใช่การตัดสินใจที่ดีในฐานะ CEO
(ในบทสัมภาษณ์หนึ่ง) ผมประทับใจกับคำถามที่ถามคุณชเวแทวอน ประธาน SKT ว่าคิดว่า AI เป็นฟองสบู่หรือไม่ และคำตอบของเขา
> ถ้าจำอารมณ์ของคำพูดได้ประมาณว่า "ถึงมันจะเป็นฟองสบู่จริง ๆ ก็เถอะ แต่ในเมื่อคนอื่นทำกันหมด ก็ไม่อาจไม่ทำได้"
พูดตรงดีนะ
ถ้าดูจากเงินที่ต้องใส่เข้าไป ก็น่าจะมีการเพิ่มประสิทธิภาพในทุกด้านที่สามารถทำให้มีประสิทธิภาพได้
[ต้นทุนพลังงาน, ประสิทธิภาพของพารามิเตอร์ LLM, การแคช ฯลฯ] สิ่งเหล่านี้ในท้ายที่สุดอาจทำให้ใช้เงินน้อยกว่าที่คาดไว้ก็ได้ครับ อืมๆ..ท่าทีมองโลกในแง่ร้ายต่อปัญญาประดิษฐ์แบบ (~~ ไม่มีทางเป็นไปได้เด็ดขาด) มักจะถูกทำลายลงเสมอ
ต่อให้ดูแค่ LLM อย่างเดียว สำหรับผมมันก็ให้ความรู้สึกเหมือนปาฏิหาริย์ครับ
ถ้ามองตามตัวเลขก็เป็นแบบนั้นแหละ...
แต่นอกจาก LLM กับดาต้าเซ็นเตอร์แล้ว ก็ดูเหมือนไม่น่าจะมีอะไรที่พอจะขับเคลื่อนเศรษฐกิจสหรัฐได้อีกไม่ใช่เหรอครับ
ก็แทบจะตรงกับที่ฉันคิดเลย... พวกเราแค่ขายหน่วยความจำให้ได้เยอะ ๆ ก็พอแล้วแหละ
ความคิดเห็นจาก Hacker News
มีการอ้างคำพูดของ Steve Jobs ว่าในปี 1958 IBM พลาดเทคโนโลยี xerography ต่อมาอีก 10 ปีก็มองข้าม มินิคอมพิวเตอร์ และอีก 10 ปีถัดมาก็ประเมิน Apple II ต่ำเกินไป
พอมาดูตอนนี้ที่ CEO ของ IBM พูดว่า “การลงทุนในดาต้าเซ็นเตอร์ AI ไม่ทำกำไร” ก็เหมือน IBM ยังอ่านอนาคตพลาดอยู่เหมือนเดิม
ข้อมูลที่เกี่ยวข้อง: Steve Jobs 1983 Keynote, ประวัติการประดิษฐ์ Xerox
หลังจากนั้น IBM PC (5150) ใช้ชิ้นส่วนเชิงพาณิชย์เพื่อลดราคา และนั่นคือกุญแจของความสำเร็จ
IBM 5100 วิกิ
Apple II เองก็มีอิทธิพลน้อยมากในตลาดองค์กร อีกอย่างนี่เป็นเรื่องเมื่อ 50 ปีก่อน ซึ่งแยกจากประเด็นเรื่อง ผลตอบแทนจากการลงทุน (ROI) ของ AI ในตอนนี้
CEO ของ IBM บอกว่า “ชิป AI ผ่านไป 5 ปีก็ต้องทิ้ง” ซึ่งดูเป็นสมมติฐานที่ฟันธงเกินไป
ถ้าฮาร์ดแวร์ยังเสถียรแม้ผ่านไป 5 ปี ก็ยังมี ช่องทางสร้างรายได้ด้วยการนำโมเดลรุ่นเก่ามารันในราคาถูก
ทวีตของ Burry
สุดท้ายวงจร 5 ปีจะมีผลอย่างมากต่อการตัดสินใจลงทุน
มองว่าการลงทุนในดาต้าเซ็นเตอร์ AI คงเกิดขึ้นจริงทั้งหมดได้ยาก แค่ ความต้องการไฟฟ้า ก็เป็นข้อจำกัดแล้ว
Gartner คาดว่าการใช้จ่ายด้าน AI ทั่วโลกในปี 2025 จะสูงถึง 1.5 ล้านล้านดอลลาร์
เมื่อเทียบกับ GDP โลก (111 ล้านล้านดอลลาร์ ณ ปี 2024) ก็ไม่นับว่าเกินจริงมากนัก
อายุการลงทุน AI ประเมินไว้ราว 6~8 ปี และถ้าไม่ได้มองโลกในแง่ร้ายเกินไปก็ถือว่าเป็นขนาดที่สมเหตุสมผล
รายงานของ Gartner
ข้อมูล GDP ของธนาคารโลก
ถ้าบริการ LLM ใช้ โหมดตอบสั้นเป็นค่าเริ่มต้น (ไม่เกิน 200 โทเค็น) และใช้ prompt caching กับการ route ไปยังโมเดลขนาดเล็ก
ก็มองว่าสามารถ ลดการใช้พลังงานได้มากกว่า 70%
ในระดับ ChatGPT ค่าไฟรายปีอยู่ที่ 50~100 ล้านดอลลาร์ แต่ถ้าใช้วิธีนี้จะลดเหลือ 5~10 ล้านดอลลาร์
ถ้า EU หรือแคลิฟอร์เนียบังคับใช้โหมดแบบนี้ ก็จะเกิดการเปลี่ยนแปลงใหญ่ต่อ เศรษฐศาสตร์ของดาต้าเซ็นเตอร์
เมื่อ 10 ปีก่อน IBM เคยโหมโฆษณา “Watson” พร้อมคำอย่าง “Cognitive Finance” แต่ตอนนี้ไม่มีใครพูดถึงแล้ว
เลยอดคิดไม่ได้ว่าหรือ IBM จะ ไม่พอใจที่กระแส AI รอบนี้ถูกคนอื่นนำอยู่
เดโมเทคโนโลยีน่าประทับใจ แต่ไม่มี โมเดลรายได้จริง
ยังจำได้ว่าต้องสร้าง PoC เองเพื่อพิสูจน์ว่ามันใช้ไม่ได้
ถึงอย่างนั้นเมื่อดูจากสถานะของบริษัทในตลาด ก็ไม่ใช่ความเห็นที่ควรถูกมองข้ามทั้งหมด
อย่างที่ CEO ของ IBM พูดไว้ ประเด็นที่ว่า AI ทำกำไรได้ยาก ก็มีเหตุผลอยู่
ตามเกณฑ์ของ NVIDIA ไฟฟ้าระดับ 1GW สามารถสร้างโทเค็นได้ปีละ 6.29×10^16 โทเค็น
ถ้าข้อความทั้งหมดบนอินเทอร์เน็ตมีระดับ 10^14 โทเค็น ข้อมูลเองก็อาจชนเพดานได้
ในการถกเถียงเรื่อง AI ตอนนี้มี ปัจจัยความกลัว อยู่ 3 อย่าง
IBM ไม่ได้มีข้อมูลเชิงลึกพิเศษอะไรนัก แต่แค่สะท้อนความกลัวบางส่วนเหล่านี้เท่านั้น
มองว่าการลงทุนโครงสร้างพื้นฐาน AI คล้ายกับ การลงทุนไฟเบอร์ออปติกเกินตัวในยุคฟองสบู่ดอตคอม
ในระยะยาวมันมีคุณค่า แต่บริษัทแต่ละรายอาจล้มเหลวอย่างหนักได้
สิ่งที่สำคัญกว่า จำนวน GPU คืออัตราการใช้งานและโมเดลรายได้
IBM เป็นบริษัทที่ พลาดโอกาส ทั้งในฮาร์ดแวร์ผู้บริโภค ระบบปฏิบัติการ และคลาวด์
คำพูดของ CEO อาจถูกก็ได้ แต่ไม่เหมาะจะใช้เป็น มาตรฐานในการทำนายอนาคต