- การทดลองดัดแปลง Nvidia Grace-Hopper GH200 server ให้เป็น AI เดสก์ท็อป สำหรับใช้งานส่วนตัว โดยได้ประสิทธิภาพระดับที่สามารถรันโมเดลขนาด 235B พารามิเตอร์แบบโลคัลได้
- ซื้อระบบ GH200 มือสองจาก Reddit ในราคา 7,500 ยูโร แล้วประกอบใหม่จาก เซิร์ฟเวอร์ระบายความร้อนด้วยน้ำสำหรับดาต้าเซ็นเตอร์ ให้กลายเป็น เดสก์ท็อประบายความร้อนด้วยอากาศ
- มีการแก้ปัญหาฮาร์ดแวร์จำนวนมาก เช่น การระบายความร้อน, ระบบไฟ, ความผิดพลาดของเซ็นเซอร์ที่ทำให้ อุณหภูมิ GPU แสดง 16.77 ล้าน°C, วงจรพัดลมเสียหาย, และการซ่อมด้วยการบัดกรีมือ
- สุดท้ายประกอบระบบที่เสถียรได้ด้วยการผสม ชุดระบายความร้อนด้วยน้ำ 4 ชุด, อะแดปเตอร์ที่ผ่านการกลึง CNC, และ ชิ้นส่วนที่พิมพ์ 3D
- ต้นทุนรวมประมาณ 9,000 ยูโร ทำให้สร้าง AI เวิร์กสเตชันสมรรถนะสูงมาก ได้ในราคาถูกกว่า GPU H100 เดี่ยว
การซื้อเซิร์ฟเวอร์ Grace-Hopper และสเปก
- พบประกาศขาย เซิร์ฟเวอร์ GH200 ราคา 10,000 ยูโร ในบอร์ด r/LocalLLaMA ของ Reddit และต่อรองจนซื้อได้ที่ 7,500 ยูโร
- สเปก: 2× Grace-Hopper Superchip, 2× Grace CPU 72 คอร์, 2× H100 GPU, 480GB LPDDR5X, 96GB HBM3, หน่วยความจำความเร็วสูงรวม 1,152GB
- แบนด์วิดท์ NVLink-C2C 900GB/s, ใช้พลังงาน 1,000~2,000W, มาพร้อม PSU 3,000W
- ผู้ขายคือ GPTshop.ai ซึ่งเป็นบริษัทที่ดัดแปลงและขายเซิร์ฟเวอร์ Nvidia ในรูปแบบเดสก์ท็อป
- เดิมระบบนี้เป็นลักษณะ “Franken-system” ที่แปลง เซิร์ฟเวอร์ระบายความร้อนด้วยน้ำ ให้เป็น ระบบระบายความร้อนด้วยอากาศ
- ภายนอกดูหยาบ ๆ ไม่สามารถติดตั้งเข้าตู้แร็กได้ และมีแหล่งจ่ายไฟ 48V ติดอยู่
การถอดแยกและทำความสะอาดเซิร์ฟเวอร์
- เซิร์ฟเวอร์อยู่ในสภาพ มีฝุ่นสะสมหนักมาก และพัดลมกำลังสูง 8 ตัวส่งเสียงดังระดับ เครื่องดูดฝุ่น
- ดังเกินกว่าจะใช้งานในบ้านได้ จึงถอดแยก ทำความสะอาด และประกอบใหม่
- ใช้ isopropanol หลายลิตรล้างเมนบอร์ดทั้งแผง แล้ว ตากบนแผ่นทำความร้อน เป็นเวลาหนึ่งสัปดาห์
- ถอดแยกเพื่อตรวจสอบภายในของโมดูล Grace-Hopper และสำรวจโครงสร้างด้านใน
การปรับโครงสร้างระบบระบายความร้อนด้วยน้ำ
- เนื่องจากกังวลเรื่องการรั่ว จึงใช้ชุด AIO Arctic Liquid Freezer III 420 จำนวน 4 ชุด แทนการใช้บล็อกแบบสั่งทำ
- วัดขนาดไดของ GPU และ CPU แล้วออกแบบบล็อกอะแดปเตอร์ด้วย Fusion 360
- สร้างต้นแบบด้วย Bambu X1 3D printer และทำชิ้นส่วนจริงขั้นสุดท้ายด้วย CNC
- หลังการกลึง มีการกำจัดน้ำมันตกค้างและติดตั้งเสร็จเรียบร้อย พร้อมประสิทธิภาพการระบายความร้อนที่เพียงพอ
การประกอบเป็นเดสก์ท็อป
- สร้างเฟรมด้วย ProfilAlu aluminum profile โดยออกแบบด้วย Fusion 360
- ผลิต ชิ้นส่วนยึด PCB และฟิลเตอร์ หลายสิบชิ้นด้วยการพิมพ์ 3D
- ใช้ฟิลาเมนต์ไปหลายกิโลกรัมเพื่อเพิ่มความแข็งแรงของโครงสร้าง
ปัญหาสำคัญที่เกิดขึ้น
- ระหว่างต่อไฟให้พัดลม มีเสียง “ป๊อบ” และเกิดควันขึ้น ทำให้ วงจร fan header บางส่วนเสียหาย
- คาดว่า MOSFET เสียหายจากการคำนวณกระแสผิด
- ไฟเลี้ยงพัดลมจึงเปลี่ยนไปใช้ อะแดปเตอร์ 12V-5A แยกต่างหาก
- ข้อผิดพลาดของพัดลมทำให้ BMC(Baseboard Management Controller) บล็อกการบูต
- ข้ามการตรวจสอบพัดลมด้วยการปิด
phosphor-sensor-monitor.service
ข้อผิดพลาดอุณหภูมิ GPU และการซ่อมวงจร
- ระหว่างบูต อุณหภูมิ GPU แสดง 16,777,214°C และระบบปิดตัวเองอัตโนมัติ
- ค่านี้คือ ค่าสูงสุดของจำนวนเต็ม 24 บิต (2²⁴-2) ซึ่งหมายถึง สัญญาณจากเซ็นเซอร์ผิดพลาด
- เมื่อตรวจด้วยกล้องจุลทรรศน์ พบว่า คาปาซิเตอร์ 100nF และตัวต้านทาน 4.7kΩ เสียหาย
- ซ่อมวงจรด้วยการบัดกรีละเอียดและยึดด้วย UV mask
- หลังประกอบกลับ สามารถบูตได้ตามปกติ
ชุดประกอบสุดท้ายและประสิทธิภาพ
- ชิ้นส่วนที่ทำเพิ่ม:
- เมาท์ SSD แบบ E1.S ขนาด 8TB, แผงด้านหลังสำหรับ PSU 3kW, และตะแกรงป้องกันหม้อน้ำ
- ปัญหาการ initialze GPU ถูกแก้ด้วย การปิดใช้งาน NVLink
- เพิ่ม
NVreg_NvLinkDisable=1 ใน /etc/modprobe.d/nvidia-disable-nvlink.conf
ผลการทดสอบเบนช์มาร์ก
- คอมไพล์ Llama.cpp ด้วย 144 คอร์ใช้เวลา 90 วินาที และผลทดสอบโมเดลขนาดใหญ่มีดังนี้:
- gpt-oss-120b-Q4_K_M: พรอมป์ต์ 2974.79, โทเคน 195.84
- GLM-4.5-Air-Q4_K_M: พรอมป์ต์ 1936.65, โทเคน 100.71
- Qwen3-235B-A22B-Instruct: พรอมป์ต์ 1022.79, โทเคน 65.90
- ใช้พลังงานราว 300W ต่อ GPU ซึ่งยังต่ำกว่าค่าสูงสุด (900W) มาก
รายการค่าใช้จ่าย
- เซิร์ฟเวอร์ Grace-Hopper €7,500, SSD €250, อะแดปเตอร์ CNC €700, ชุดระบายความร้อนด้วยน้ำ €180
- เฟรม €200, แผงกระจก €40, วัสดุพิมพ์ 3D €40, อุปกรณ์อื่น ๆ €50
- isopropanol สำหรับทำความสะอาด €20, แหล่งจ่ายไฟ 12V €10, ไฟ LED €10
- รวมทั้งหมดราว €9,000 ซึ่งถูกกว่า GPU H100 เดี่ยว
บทสรุป
- สร้าง เดสก์ท็อปที่สามารถรันโมเดลขนาด 235B พารามิเตอร์แบบโลคัลได้ สำเร็จ
- ระหว่างเปลี่ยนฮาร์ดแวร์ระดับดาต้าเซ็นเตอร์ให้ใช้งานส่วนตัว ต้องฝ่าฟันอุปสรรคมากมาย ทั้ง ความผิดพลาดของเซ็นเซอร์, วงจรเสียหาย, และปัญหาการระบายความร้อน
- ผลลัพธ์คือกรณีตัวอย่างของการสร้าง เวิร์กสเตชันสำหรับวิจัย AI สมรรถนะสูง ด้วยต้นทุนที่ค่อนข้างต่ำ
1 ความคิดเห็น
ความเห็นจาก Hacker News
ผมซื้อฮาร์ดแวร์ AI ระดับดาต้าเซ็นเตอร์มาแล้วดัดแปลงจากระบบระบายความร้อนด้วยของเหลว → ลม → กลับไปใช้ของเหลวอีกครั้ง เจอวิกฤตสารพัดรวมถึงอุณหภูมิ GPU ที่แสดงเป็น 16 ล้านองศา ก่อนจะประกอบเดสก์ท็อปที่รันโมเดลขนาด 235B พารามิเตอร์ที่บ้านได้สำเร็จ
นี่คือเรื่องของการตัดสินใจแบบบ้าบิ่น การแก้ปัญหาอย่างสร้างสรรค์ และความพยายามเปลี่ยนอุปกรณ์ดาต้าเซ็นเตอร์ให้ใช้ในชีวิตประจำวัน
ผมใช้เวลาหาคำตอบนี้เป็นสัปดาห์ และสุดท้ายแก้ได้เพราะ Reddit เลยสงสัยว่าปัญหาแบบนี้อาจเกิดในดาต้าเซ็นเตอร์ทั่วไปด้วยหรือเปล่า
ผมก็มีประสบการณ์คล้ายกัน ตลอด 3 ปีที่ผ่านมาอยากทำเซิร์ฟเวอร์เกมแบบแร็กไว้ใช้กับลูกชาย แต่บ้านแคบและภรรยาไม่ยอม เลยไปใช้ทั้งโรงไฟฟ้า PV ของพ่อแม่ (90kWp) และแร็กเซิร์ฟเวอร์ที่บ้านพ่อแม่แทน
สองเดือนก่อนผมซื้อ Supermicro SYS-7049GP-TRT จาก eBay มาในราคา 1,400 ยูโร เปิดดูข้างในแล้วพบว่ามีNvidia V100S 32GBอยู่ด้วย เลยขายไป 1,600 ยูโร แล้วซื้อ CPU Xeon 6254 สองตัวมาเปลี่ยน หลังจากนั้นก็ซื้อ Blackwell RTX 4000 Pro สองใบ ตอนนี้ทั้งเล่นเกมกับลูกชายและทดลอง LLM ได้แล้ว
เคสนี้ใส่ GPU แบบคู่ได้ 4 ชุด ดังนั้นสักวันหนึ่งอาจอัปเกรดเป็น RTX 6000 สี่ใบได้ด้วย (รวม VRAM 384GB) อุปกรณ์องค์กรมือสองแข็งแรงและคุ้มค่ามาก เป็นงานอดิเรกที่สนุกจริง ๆ
ขำตรงที่เอาเซิร์ฟเวอร์หนัก 20 กก. ราคา 7.5k ยูโร ไปวางบนโต๊ะ IKEA LACKราคา 5 ยูโร เพราะ LACK รับน้ำหนักได้สูงสุด 25 กก. ดูเสี่ยงมาก
ประโยคที่ว่า “ขับรถไปเอาเองสองชั่วโมง” นี่ตลกดี เพราะเป็นความหมายตรงตัวของ Your mileage may vary จริง ๆ
น่าประทับใจที่เขาบอกว่ากระบวนการทำให้ GPU ใช้งานได้ทรมานมาก เลยทิ้งคำสั่งติดตั้งไว้ให้คนบุกเบิกรุ่นถัดไป
ต้องติดตั้ง ไดรเวอร์ NVIDIA-Linux-aarch64 และทุกครั้งที่เห็นคำสั่งลึกลับแบบนี้ก็ทำให้นึกว่า “ฉันก็เคยอยู่จุดนั้น”
ถามจริงจังนะ อยากรู้ว่าอุปกรณ์แบบนี้ให้ประสิทธิภาพการเล่นเกมดีจริงไหม หรือเพราะมันถูกปรับแต่งมาสำหรับ AI/ML เลยอาจเล่นเกมทั่วไปได้ไม่ดี
แล้วตอนที่บอกว่า “ขับไปยังฟาร์มกลางป่า” นี่ก็แอบสงสัยเหมือนกันว่าอันตรายไหม
โพสต์แบบนี้เจ๋งมาก นี่แหละเสน่ห์ของ Hacker News กับเรื่องเล่าความสำเร็จสาย DIY
แน่นอนว่ายังเป็นดีลที่ดีอยู่ แต่การเทียบกับราคา H100 มือหนึ่งก็ดูพูดเกินไปนิดหน่อย ตอนนี้ซื้อ RTX 6000 Pro ได้ในราคา 7–8 พันดอลลาร์ และประสิทธิภาพก็ใกล้เคียงกัน แถมยังใส่กับเวิร์กสเตชันทั่วไปได้ด้วย ราคาเสื่อมของอุปกรณ์องค์กรมือสองนั้นมหาศาลจริง ๆ
Blackwell เร็วกว่า H100 สองเท่าในแง่ FP8 แต่การเปรียบเทียบนี้อิง FP4 เลยไม่ได้ตรงกันทั้งหมด ส่วนแบนด์วิดท์ VRAM บน HBM3 อยู่ที่ 4.9TB/s ซึ่งมากกว่า 1.8TB/s ของ RTX 6000 Pro ถึง 2.5 เท่า
NVLink-C2C ให้ความเร็วระหว่างการ์ด 900GB/s หรือราว 5 เท่าของ PCIe5 ซึ่งช่วยลดคอขวดได้มากใน LLM ขนาดใหญ่
ตัวอย่างเช่นใน เบนช์มาร์ก GPT-OSS-120B RTX 6000 Pro สร้างได้ 145 โทเคนต่อวินาที ขณะที่ GH200 ได้ 195 โทเคนต่อวินาที
ให้ความรู้สึกเหมือนกำลังใช้ชีวิตในฝันแบบไซเบอร์พังก์ของจริง กล้าทำอะไรแบบนี้นับว่าน่าทึ่งมาก
ขอแนะนำร้านที่ขายอุปกรณ์องค์กรมือสองหน่อย ร้านส่วนใหญ่น่าจะอยู่แคลิฟอร์เนีย เลยสงสัยว่าแถว NY/NJ มีบ้างไหม