- โมเดลภาษาขนาดใหญ่ที่เสริม ประสิทธิภาพ และ ความสามารถในการทำงานระยะยาว ของ AI
- ขยายจากรุ่นก่อนหน้าเป็น พารามิเตอร์ 744 พันล้านตัว (active 40 พันล้าน) และเพิ่ม ข้อมูลพรีเทรนเป็น 28.5 ล้านล้านโทเคน
- ผสานรวม DeepSeek Sparse Attention(DSA) เพื่อคงความสามารถในการประมวลผลบริบทยาว พร้อมทั้ง ลดต้นทุนการดีพลอย
- เพิ่มประสิทธิภาพการฝึกด้วยโครงสร้างพื้นฐาน reinforcement learning แบบอะซิงโครนัสใหม่
slime และทำผลงานระดับแนวหน้าในหลายเบนช์มาร์ก
- เปิดซอร์สแบบโอเพนซอร์ส เข้าถึงได้ผ่าน Hugging Face, ModelScope, แพลตฟอร์ม Z.ai ฯลฯ และรองรับ Claude Code และ OpenClaw
ภาพรวมของ GLM-5
- GLM-5 เป็นโมเดลที่ออกแบบมาโดยมีเป้าหมายเพื่อทำ งานวิศวกรรมระบบที่ซับซ้อนและงานเอเจนต์ระยะยาว
- เมื่อเทียบกับ GLM-4.5 พารามิเตอร์เพิ่มจาก 355 พันล้าน (active 32 พันล้าน) เป็น 744 พันล้าน (active 40 พันล้าน)
- ข้อมูลพรีเทรนขยายจาก 23 ล้านล้านเป็น 28.5 ล้านล้านโทเคน
- ผสานรวม DeepSeek Sparse Attention(DSA) เพื่อคงความสามารถในการประมวลผลบริบทยาว พร้อมทั้ง ลดต้นทุนการดีพลอยได้อย่างมาก
- นำโครงสร้างพื้นฐาน reinforcement learning แบบอะซิงโครนัสชื่อ slime มาใช้เพื่อ เพิ่ม throughput และประสิทธิภาพการฝึก และรองรับการวนซ้ำ post-training อย่างละเอียด
การปรับปรุงประสิทธิภาพและผลเบนช์มาร์ก
- GLM-5 แสดงให้เห็นถึง การปรับปรุงประสิทธิภาพโดยรวมเมื่อเทียบกับ GLM-4.7 และเข้าใกล้ระดับของ Claude Opus 4.5
- ในชุดประเมินภายใน CC-Bench-V2 ทำผลงานได้ยอดเยี่ยมทั้งด้านฟรอนต์เอนด์ แบ็กเอนด์ และงานระยะยาว
- ใน Vending Bench 2 คว้าอันดับ 1 ในบรรดาโมเดลโอเพนซอร์ส และทำ ยอดคงเหลือสุดท้าย 4,432 ดอลลาร์ ในการจำลองธุรกิจตู้จำหน่ายสินค้าอัตโนมัติเป็นเวลา 1 ปี
- มีประสิทธิภาพโอเพนซอร์สระดับโลกในด้าน การให้เหตุผล การเขียนโค้ด และงานเอเจนต์ โดยรวม
- ตัวอย่าง: SWE-bench Verified 77.8 คะแนน, BrowseComp 62.0 คะแนน, τ²-Bench 89.7 คะแนน เป็นต้น
- ลดช่องว่างกับโมเดลชั้นนำอย่าง GPT-5.2, Gemini 3.0 Pro เป็นต้น
การเปิดซอร์สและช่องทางการเข้าถึง
- GLM-5 เปิดเผยภายใต้ MIT License และสามารถดาวน์โหลดน้ำหนักโมเดลได้จาก Hugging Face และ ModelScope
- ใช้งานในรูปแบบ API ได้ที่ Z.ai, BigModel.cn, api.z.ai เป็นต้น
- รองรับ Claude Code และ OpenClaw จึงผสานใช้งานได้ในสภาพแวดล้อมการพัฒนาที่หลากหลาย
- แพลตฟอร์ม Z.ai มีให้ทดลองใช้งานฟรี
ความสามารถด้านออฟฟิศและการสร้างเอกสาร
- GLM-5 มุ่งสู่การเปลี่ยนจาก “แชต” ไปสู่ “งาน” และทำหน้าที่เป็น เครื่องมือออฟฟิศสำหรับผู้ใช้แรงงานความรู้และวิศวกร
- สามารถแปลงข้อความหรือแหล่งข้อมูลต้นทางเป็นไฟล์ .docx, .pdf, .xlsx ได้โดยตรง เพื่อ สร้างเอกสารสำเร็จรูป เช่น PRD, ข้อสอบ, รายงานการเงิน, เมนู
- แอปพลิเคชัน Z.ai มี โหมด Agent ที่รองรับการสร้าง PDF/Word/Excel และทำงานร่วมกันได้หลายรอบ
การสนับสนุนนักพัฒนาและการดีพลอย
- ผู้สมัครสมาชิก GLM Coding Plan จะสามารถเข้าถึง GLM-5 ได้แบบค่อยเป็นค่อยไป
- ผู้ใช้แพ็กเกจ Max สามารถเปิดใช้งานได้ทันทีด้วยชื่อโมเดล
"GLM-5"
- คำขอ GLM-5 ใช้ โควตามากกว่า GLM-4.7
- มีสภาพแวดล้อมการพัฒนาเอเจนต์ Z Code สำหรับผู้ใช้ที่ชอบ GUI
- ผ่านเฟรมเวิร์ก OpenClaw สามารถใช้ GLM-5 เป็น เอเจนต์ผู้ช่วยส่วนตัวที่ทำงานได้ครอบคลุมทั้งแอปและอุปกรณ์
การดีพลอยแบบโลคัลและความเข้ากันได้ของฮาร์ดแวร์
- GLM-5 รองรับเฟรมเวิร์กสำหรับ inference เช่น vLLM, SGLang และมีคู่มือการดีพลอยจาก GitHub ทางการ
- สามารถรันได้บน ชิปเซ็ตนอกเหนือจาก NVIDIA (เช่น Huawei Ascend, Moore Threads, Cambricon, Kunlun, MetaX, Enflame, Hygon เป็นต้น)
- ผ่านการปรับแต่งเคอร์เนลและการควอนไทซ์โมเดลเพื่อให้ได้ throughput ที่สมเหตุสมผล
4 ความคิดเห็น
ความคิดเห็นจาก Hacker News
เห็นผลลัพธ์ที่ Pelican สร้างผ่าน OpenRouter แล้ว
ตัวนกเองดูเหมือนเป็น นกที่แข็งแรง แต่ไม่ค่อยเหมาะจะเป็นโครงจักรยาน
ลิงก์ที่เกี่ยวข้อง
ดูบริบทของการทดสอบจักรยาน Pelican ได้ ที่นี่
SVG มีอยู่ทุกที่แล้ว จึงน่าจะต้องมีสถานการณ์ใหม่ที่สมจริงกว่านี้
กังวลว่าผลลัพธ์แบบนี้อาจกำลัง ปนเปื้อน ข้อมูลฝึกอยู่หรือเปล่า
น่าสนใจที่ AI พูดเองว่า ‘ต้องมีเท้าพังผืด’ แต่ในภาพจริงกลับไม่มี
รู้สึกกังวลกับท่าทีที่มองว่าความแม่นยำ 90% แบบ MMLU หรือ AIME คือ ‘แก้ปัญหาได้แล้ว’
ถ้าเป็น AGI จริงก็ควรต้องได้ ความแม่นยำ 100% แต่เรากลับพอใจกันง่ายเกินไป
มองว่าในอนาคต การโคลนแบบเร็วด้วย distillation ในตลาดสีเทา เป็นเรื่องที่หลีกเลี่ยงไม่ได้
เมื่อก่อนคิดว่าโมเดล N-1, N-2 คงไม่น่าสนใจ แต่ตอนนี้แม้แต่ความชอบของผู้ใช้ก็ดูอิ่มตัวแล้ว ระดับนั้นก็น่าจะทำให้คนส่วนใหญ่พอใจได้
Opus 4.5 เป็นการก้าวกระโดดชัดเจน แต่ 4.6 ไม่ได้เปลี่ยนเวิร์กโฟลว์ของฉัน
สุดท้ายหลังจาก ‘การขโมยครั้งใหญ่ที่สุดของมนุษยชาติ’ ก็น่าจะตามมาด้วย ‘ผลกรรมครั้งใหญ่ที่สุด’
ผู้ใช้คงไม่สนเลยว่า AI จากจีนจะ ขโมย มาจากบิ๊กเทคอเมริกัน
สามารถอ้างได้ว่า “ก็แค่เรียนรู้เหมือนมนุษย์ ทำไมถึงผิดกฎหมาย”
แค่สร้างเว็บไซต์คอนเทนต์ที่ AI สร้างขึ้นสักหลายพันเว็บ แล้วเปิดเผย พรอมป์ต์และข้อมูลโมเดล ไว้ในแต่ละโพสต์
จากนั้นคนอื่นก็ ‘บังเอิญ’ มาคลานข้อมูลไปใช้ฝึกได้
รู้สึกว่าไปได้ไกลกว่าเดิมอย่างน้อยสองเท่า จนไม่อยากย้อนกลับไปแล้ว
เบนช์มาร์กล่าสุดน่าประทับใจ แต่ตัวเทียบเป็นโมเดลรุ่นเก่าอย่าง Opus 4.5, GPT-5.2
ช่วงนี้โมเดลเปิดหลายตัวได้คะแนนเบนช์มาร์กสูง แต่ประสบการณ์ใช้งานจริงต่ำกว่าที่คาด
มี benchmaxxing อยู่ชัดเจน
การรันเบนช์มาร์ก 20 ตัวก็ไม่ใช่เรื่องง่าย และโมเดลเจเนอเรชันใหม่เพิ่งออกมาได้แค่ 5 วัน
นักพัฒนาหลายคนหมกมุ่นกับ การบูชาโมเดลปิด และไม่รู้ว่าพรอมป์ต์เดียวกันใช้กับโมเดลตระกูลอื่นไม่ได้
ฉันใช้ GLM-4.7 บ่อย และมันอยู่ระดับ Sonnet 4.5 ส่วน GLM-5 ก็น่าจะประมาณ Opus 4.5
ถ้าทดสอบแบบปิดตาแทบแยกไม่ออกว่าต่างกันยังไง
ต่อให้เทียบคำตอบของ Claude กับ ChatGPT ก็แทบเหมือนกัน
ท้ายที่สุดแล้วสำหรับการใช้งานส่วนใหญ่ แค่ โมเดลระดับ Toyota ก็พอแล้ว
แม้จะมีนวัตกรรมเชิงอัลกอริทึมได้ แต่ ต้นทุนในการสร้างข้อมูลจากมนุษย์ สูงเกินไปจนขยายสเกลไม่ได้
โมเดลโอเพนซอร์สยังมี syntax error เยอะ ขณะที่โมเดลแนวหน้าส่วนใหญ่แก้ปัญหานั้นได้เกือบหมดแล้ว
แต่ห้องแล็บจีนเน้นเบนช์มาร์กเป็นหลัก จึงเกิดความต่างขึ้น
การโฮสต์เอง กับ การพัฒนาอย่างต่อเนื่อง เป็นสิ่งที่ไปด้วยกันได้ยาก
ด้วยโอเพนซอร์สจากจีน ดูเหมือนว่าเราจะมี ปัญญาที่โฮสต์เองได้
แม้จะไม่มีประสิทธิภาพในแง่ต้นทุน แต่ฉันชอบตรงที่มันทำงานได้อย่างอิสระโดยไม่ต้องเชื่อมต่ออินเทอร์เน็ต
สุดท้ายแล้ว macOS กลายเป็นตัวเลือกผู้บริโภคเพียงแบบเดียวที่รันโมเดลขนาดใหญ่บนเครื่องได้
การโฮสต์เองมีคุณค่าในแง่ ความเป็นส่วนตัวและความพร้อมใช้งาน
โดยเฉพาะเมื่อจำเป็นต้องมีทางเลือกเผื่อกฎระเบียบดิจิทัลของสหรัฐจะเข้มงวดขึ้น
ถึงอย่างนั้นข้อดีคือยังแก้อคติได้ด้วยการ fine-tune
แนะนำ GPT-OSS 120GB, Qwen Coder Next 80B, Step 3.5 Flash
คาดว่าในอีก 1~2 ปี ฮาร์ดแวร์ผู้บริโภคก็น่าจะรัน โมเดลระดับ 512GB ได้
เป็นการกลับมาของโฮมเน็ตเวิร์ก
แก่นสำคัญคืออิสระในการเปลี่ยนผู้ให้บริการได้ทุกเมื่อ
ฉันใช้ GLM-4.7 มาสองสามสัปดาห์แล้ว และมันอยู่ระดับใกล้เคียง Sonnet
เพียงแต่ต้องสั่งให้ชัดเจนกว่า
งานใหญ่ยังคงใช้สาย Anthropic แต่สำหรับ งานเล็กและชัดเจน GLM คุ้มราคาที่สุด
ถ้าปล่อย GLM-4.7 ไว้ลำพัง มันมี แนวโน้มจะสร้างโลกขึ้นมาเองโดยไม่จำเป็น
แต่สำหรับงานเล็ก ๆ มันใกล้เคียง Sonnet และราคาถูกมาก จึงมีประโยชน์ในฐานะโมเดลเสริม
ถ้าโมเดลเปิดพัฒนาไปอีกสัก 6 เดือน ฉันก็พร้อมจะย้ายแล้ว
ตอนนี้ MiniMax M2.5 ก็ใช้งานได้ใน Chat UI ตั้งแต่วันนี้
GLM ดีกว่าสำหรับงานโค้ด แต่ฉันใช้ MiniMax บ่อยกับงานประจำวันเพราะ ความเร็วและความสามารถในการเรียกใช้เครื่องมือ
โมเดลใหม่ถูกปล่อยบน OpenRouter แล้ว
ในเบนช์มาร์กส่วนตัวของฉัน ความสามารถในการทำตามคำสั่ง อ่อนมาก
เป็นการทดสอบที่ใช้รูปแบบ chat.md + mcps แต่ทำได้ไม่ถูกต้อง
อยากรู้ว่าได้ผลลัพธ์แบบไหนกับโมเดลแนวหน้าตัวอื่นบ้าง
ฉันเองก็กำลังทำโปรแกรมแก้ไขข้อความที่ใช้คีย์ไบน์ดิงแบบ vim อยู่ และแนวทางนี้อาจเป็น แรงบันดาลใจด้าน UI ได้
กำลังคิดจะเพิ่มฟังก์ชันพับข้อความที่ไม่จำเป็น
บางครั้งประสิทธิภาพก็แย่จริง ๆ
ถ้าเป็นไปได้ควรใช้ผู้ให้บริการต้นทางโดยตรง
รู้สึกว่า GLM-4.7-Flash เป็น โมเดลอัจฉริยะตัวแรกที่ใช้เขียนโค้ดในเครื่องได้จริง
มันอยู่ระดับใกล้เคียง Claude 4.5 Haiku และ กระบวนการให้เหตุผลโปร่งใส ทำให้เข้าใจได้ว่าทำไมถึงตัดสินใจแบบนั้น
ดีกว่า Devstral 2 Small หรือ Qwen-Coder-Next มาก
ฉันใช้ GLM 4.7 บน opencode
แม้จะไม่ใช่ตัวที่ดีที่สุด แต่ด้วย โควตาการใช้งานที่ใจกว้าง ก็เลยใช้ได้ทั้งวัน
โมเดลใหม่ยังเข้าถึงได้จำกัดอยู่ แต่ก็กำลังรอคอย
ฉันลองใช้โมเดลใหม่บน opencode แป๊บหนึ่งแล้ว ค่อนข้างน่าประทับใจ
แม้จะไม่ใช่ นวัตกรรมแบบก้าวกระโดดครั้งใหญ่ แต่ก็ดีขึ้นจาก 4.7 อย่างชัดเจน
ความจำและ ความเสถียรในการทำงานระยะยาว ดีขึ้นอย่างเห็นได้ชัด
ราคาค่าสมัครสมาชิกขึ้นแล้วนะ
ส่วนลด 50% ที่เคยให้ตอนสมัครครั้งแรกหายไปแล้วครับ..
เดิมทีราคาโปรโมชันช่วงเปิดตัวสำหรับ Max อยู่ที่ $360 ต่อปี แต่ตอนนี้กลายเป็น $672 แล้ว...