6 คะแนน โดย GN⁺ 2026-02-12 | 4 ความคิดเห็น | แชร์ทาง WhatsApp
  • โมเดลภาษาขนาดใหญ่ที่เสริม ประสิทธิภาพ และ ความสามารถในการทำงานระยะยาว ของ AI
  • ขยายจากรุ่นก่อนหน้าเป็น พารามิเตอร์ 744 พันล้านตัว (active 40 พันล้าน) และเพิ่ม ข้อมูลพรีเทรนเป็น 28.5 ล้านล้านโทเคน
  • ผสานรวม DeepSeek Sparse Attention(DSA) เพื่อคงความสามารถในการประมวลผลบริบทยาว พร้อมทั้ง ลดต้นทุนการดีพลอย
  • เพิ่มประสิทธิภาพการฝึกด้วยโครงสร้างพื้นฐาน reinforcement learning แบบอะซิงโครนัสใหม่ slime และทำผลงานระดับแนวหน้าในหลายเบนช์มาร์ก
  • เปิดซอร์สแบบโอเพนซอร์ส เข้าถึงได้ผ่าน Hugging Face, ModelScope, แพลตฟอร์ม Z.ai ฯลฯ และรองรับ Claude Code และ OpenClaw

ภาพรวมของ GLM-5

  • GLM-5 เป็นโมเดลที่ออกแบบมาโดยมีเป้าหมายเพื่อทำ งานวิศวกรรมระบบที่ซับซ้อนและงานเอเจนต์ระยะยาว
    • เมื่อเทียบกับ GLM-4.5 พารามิเตอร์เพิ่มจาก 355 พันล้าน (active 32 พันล้าน) เป็น 744 พันล้าน (active 40 พันล้าน)
    • ข้อมูลพรีเทรนขยายจาก 23 ล้านล้านเป็น 28.5 ล้านล้านโทเคน
  • ผสานรวม DeepSeek Sparse Attention(DSA) เพื่อคงความสามารถในการประมวลผลบริบทยาว พร้อมทั้ง ลดต้นทุนการดีพลอยได้อย่างมาก
  • นำโครงสร้างพื้นฐาน reinforcement learning แบบอะซิงโครนัสชื่อ slime มาใช้เพื่อ เพิ่ม throughput และประสิทธิภาพการฝึก และรองรับการวนซ้ำ post-training อย่างละเอียด

การปรับปรุงประสิทธิภาพและผลเบนช์มาร์ก

  • GLM-5 แสดงให้เห็นถึง การปรับปรุงประสิทธิภาพโดยรวมเมื่อเทียบกับ GLM-4.7 และเข้าใกล้ระดับของ Claude Opus 4.5
  • ในชุดประเมินภายใน CC-Bench-V2 ทำผลงานได้ยอดเยี่ยมทั้งด้านฟรอนต์เอนด์ แบ็กเอนด์ และงานระยะยาว
  • ใน Vending Bench 2 คว้าอันดับ 1 ในบรรดาโมเดลโอเพนซอร์ส และทำ ยอดคงเหลือสุดท้าย 4,432 ดอลลาร์ ในการจำลองธุรกิจตู้จำหน่ายสินค้าอัตโนมัติเป็นเวลา 1 ปี
  • มีประสิทธิภาพโอเพนซอร์สระดับโลกในด้าน การให้เหตุผล การเขียนโค้ด และงานเอเจนต์ โดยรวม
    • ตัวอย่าง: SWE-bench Verified 77.8 คะแนน, BrowseComp 62.0 คะแนน, τ²-Bench 89.7 คะแนน เป็นต้น
  • ลดช่องว่างกับโมเดลชั้นนำอย่าง GPT-5.2, Gemini 3.0 Pro เป็นต้น

การเปิดซอร์สและช่องทางการเข้าถึง

  • GLM-5 เปิดเผยภายใต้ MIT License และสามารถดาวน์โหลดน้ำหนักโมเดลได้จาก Hugging Face และ ModelScope
  • ใช้งานในรูปแบบ API ได้ที่ Z.ai, BigModel.cn, api.z.ai เป็นต้น
  • รองรับ Claude Code และ OpenClaw จึงผสานใช้งานได้ในสภาพแวดล้อมการพัฒนาที่หลากหลาย
  • แพลตฟอร์ม Z.ai มีให้ทดลองใช้งานฟรี

ความสามารถด้านออฟฟิศและการสร้างเอกสาร

  • GLM-5 มุ่งสู่การเปลี่ยนจาก “แชต” ไปสู่ “งาน” และทำหน้าที่เป็น เครื่องมือออฟฟิศสำหรับผู้ใช้แรงงานความรู้และวิศวกร
  • สามารถแปลงข้อความหรือแหล่งข้อมูลต้นทางเป็นไฟล์ .docx, .pdf, .xlsx ได้โดยตรง เพื่อ สร้างเอกสารสำเร็จรูป เช่น PRD, ข้อสอบ, รายงานการเงิน, เมนู
  • แอปพลิเคชัน Z.ai มี โหมด Agent ที่รองรับการสร้าง PDF/Word/Excel และทำงานร่วมกันได้หลายรอบ

การสนับสนุนนักพัฒนาและการดีพลอย

  • ผู้สมัครสมาชิก GLM Coding Plan จะสามารถเข้าถึง GLM-5 ได้แบบค่อยเป็นค่อยไป
    • ผู้ใช้แพ็กเกจ Max สามารถเปิดใช้งานได้ทันทีด้วยชื่อโมเดล "GLM-5"
    • คำขอ GLM-5 ใช้ โควตามากกว่า GLM-4.7
  • มีสภาพแวดล้อมการพัฒนาเอเจนต์ Z Code สำหรับผู้ใช้ที่ชอบ GUI
  • ผ่านเฟรมเวิร์ก OpenClaw สามารถใช้ GLM-5 เป็น เอเจนต์ผู้ช่วยส่วนตัวที่ทำงานได้ครอบคลุมทั้งแอปและอุปกรณ์

การดีพลอยแบบโลคัลและความเข้ากันได้ของฮาร์ดแวร์

  • GLM-5 รองรับเฟรมเวิร์กสำหรับ inference เช่น vLLM, SGLang และมีคู่มือการดีพลอยจาก GitHub ทางการ
  • สามารถรันได้บน ชิปเซ็ตนอกเหนือจาก NVIDIA (เช่น Huawei Ascend, Moore Threads, Cambricon, Kunlun, MetaX, Enflame, Hygon เป็นต้น)
    • ผ่านการปรับแต่งเคอร์เนลและการควอนไทซ์โมเดลเพื่อให้ได้ throughput ที่สมเหตุสมผล

4 ความคิดเห็น

 
GN⁺ 2026-02-12
ความคิดเห็นจาก Hacker News
  • เห็นผลลัพธ์ที่ Pelican สร้างผ่าน OpenRouter แล้ว
    ตัวนกเองดูเหมือนเป็น นกที่แข็งแรง แต่ไม่ค่อยเหมาะจะเป็นโครงจักรยาน
    ลิงก์ที่เกี่ยวข้อง

    • ขอบคุณ Simon สำหรับ ระบบเบนช์มาร์กที่มีความหมายจริง ๆ เพียงระบบเดียว ที่ยังดูแลอยู่
      ดูบริบทของการทดสอบจักรยาน Pelican ได้ ที่นี่
    • คิดว่านี่เป็นการทดสอบที่สำคัญจริง ๆ ขอชนแก้วให้ Simon
    • ตอนนี้รู้สึกว่าเบนช์มาร์ก Pelican เริ่มล้าสมัยแล้ว
      SVG มีอยู่ทุกที่แล้ว จึงน่าจะต้องมีสถานการณ์ใหม่ที่สมจริงกว่านี้
    • สงสัยว่าก่อนจะมีการทดสอบนี้ เคยมี SVG รูปนก Pelican ขี่จักรยานอยู่กี่อัน
      กังวลว่าผลลัพธ์แบบนี้อาจกำลัง ปนเปื้อน ข้อมูลฝึกอยู่หรือเปล่า
    • คิดว่าการเรียกนกที่ไม่มีปีกว่าเป็น ‘นกที่แข็งแรง’ เป็นตัวอย่างเชิงสัญลักษณ์ของ ช่องว่างระหว่างความคาดหวังกับ AI
      น่าสนใจที่ AI พูดเองว่า ‘ต้องมีเท้าพังผืด’ แต่ในภาพจริงกลับไม่มี
      รู้สึกกังวลกับท่าทีที่มองว่าความแม่นยำ 90% แบบ MMLU หรือ AIME คือ ‘แก้ปัญหาได้แล้ว’
      ถ้าเป็น AGI จริงก็ควรต้องได้ ความแม่นยำ 100% แต่เรากลับพอใจกันง่ายเกินไป
  • มองว่าในอนาคต การโคลนแบบเร็วด้วย distillation ในตลาดสีเทา เป็นเรื่องที่หลีกเลี่ยงไม่ได้
    เมื่อก่อนคิดว่าโมเดล N-1, N-2 คงไม่น่าสนใจ แต่ตอนนี้แม้แต่ความชอบของผู้ใช้ก็ดูอิ่มตัวแล้ว ระดับนั้นก็น่าจะทำให้คนส่วนใหญ่พอใจได้
    Opus 4.5 เป็นการก้าวกระโดดชัดเจน แต่ 4.6 ไม่ได้เปลี่ยนเวิร์กโฟลว์ของฉัน
    สุดท้ายหลังจาก ‘การขโมยครั้งใหญ่ที่สุดของมนุษยชาติ’ ก็น่าจะตามมาด้วย ‘ผลกรรมครั้งใหญ่ที่สุด’
    ผู้ใช้คงไม่สนเลยว่า AI จากจีนจะ ขโมย มาจากบิ๊กเทคอเมริกัน

    • ถ้าบริษัท LLM อ้างความชอบธรรมในการใช้ข้อมูลฝึกได้ การที่ distiller เอาผลลัพธ์จาก LLM ไปฝึกก็ควรถูกกฎหมายด้วยตรรกะเดียวกัน
      สามารถอ้างได้ว่า “ก็แค่เรียนรู้เหมือนมนุษย์ ทำไมถึงผิดกฎหมาย”
    • การขัดขวาง distillation ต่างหากที่ควรผิดกฎหมาย
      แค่สร้างเว็บไซต์คอนเทนต์ที่ AI สร้างขึ้นสักหลายพันเว็บ แล้วเปิดเผย พรอมป์ต์และข้อมูลโมเดล ไว้ในแต่ละโพสต์
      จากนั้นคนอื่นก็ ‘บังเอิญ’ มาคลานข้อมูลไปใช้ฝึกได้
    • Opus 4.6 เด่นเรื่อง ความต่อเนื่องของงานระยะยาว
      รู้สึกว่าไปได้ไกลกว่าเดิมอย่างน้อยสองเท่า จนไม่อยากย้อนกลับไปแล้ว
    • แต่การใช้โทเคนมากเกินไป ทำให้รู้สึกว่า ถอยหลังในด้านประสิทธิภาพ
  • เบนช์มาร์กล่าสุดน่าประทับใจ แต่ตัวเทียบเป็นโมเดลรุ่นเก่าอย่าง Opus 4.5, GPT-5.2
    ช่วงนี้โมเดลเปิดหลายตัวได้คะแนนเบนช์มาร์กสูง แต่ประสบการณ์ใช้งานจริงต่ำกว่าที่คาด
    มี benchmaxxing อยู่ชัดเจน

    • รู้สึกว่าคำวิจารณ์ต่อโมเดล open-weight รุนแรงเกินไป
      การรันเบนช์มาร์ก 20 ตัวก็ไม่ใช่เรื่องง่าย และโมเดลเจเนอเรชันใหม่เพิ่งออกมาได้แค่ 5 วัน
      นักพัฒนาหลายคนหมกมุ่นกับ การบูชาโมเดลปิด และไม่รู้ว่าพรอมป์ต์เดียวกันใช้กับโมเดลตระกูลอื่นไม่ได้
      ฉันใช้ GLM-4.7 บ่อย และมันอยู่ระดับ Sonnet 4.5 ส่วน GLM-5 ก็น่าจะประมาณ Opus 4.5
    • ถ้า GLM-4.7 อยู่ระดับ 4.5 หรือ 5.2 ได้จริง นั่นก็เป็น การก้าวกระโดดครั้งใหญ่ อยู่แล้ว
    • ช่วงนี้โมเดลต่าง ๆ รู้สึกว่าเป็นแค่ เครื่องสร้างโทเคน เท่านั้น
      ถ้าทดสอบแบบปิดตาแทบแยกไม่ออกว่าต่างกันยังไง
      ต่อให้เทียบคำตอบของ Claude กับ ChatGPT ก็แทบเหมือนกัน
      ท้ายที่สุดแล้วสำหรับการใช้งานส่วนใหญ่ แค่ โมเดลระดับ Toyota ก็พอแล้ว
    • ปัญหาอยู่ที่ข้อจำกัดของ RLHF (การเสริมการเรียนรู้จากฟีดแบ็กมนุษย์)
      แม้จะมีนวัตกรรมเชิงอัลกอริทึมได้ แต่ ต้นทุนในการสร้างข้อมูลจากมนุษย์ สูงเกินไปจนขยายสเกลไม่ได้
      โมเดลโอเพนซอร์สยังมี syntax error เยอะ ขณะที่โมเดลแนวหน้าส่วนใหญ่แก้ปัญหานั้นได้เกือบหมดแล้ว
    • Anthropic, OpenAI, Google ปรับปรุงโมเดลด้วย ข้อมูลผู้ใช้จริง
      แต่ห้องแล็บจีนเน้นเบนช์มาร์กเป็นหลัก จึงเกิดความต่างขึ้น
      การโฮสต์เอง กับ การพัฒนาอย่างต่อเนื่อง เป็นสิ่งที่ไปด้วยกันได้ยาก
  • ด้วยโอเพนซอร์สจากจีน ดูเหมือนว่าเราจะมี ปัญญาที่โฮสต์เองได้
    แม้จะไม่มีประสิทธิภาพในแง่ต้นทุน แต่ฉันชอบตรงที่มันทำงานได้อย่างอิสระโดยไม่ต้องเชื่อมต่ออินเทอร์เน็ต
    สุดท้ายแล้ว macOS กลายเป็นตัวเลือกผู้บริโภคเพียงแบบเดียวที่รันโมเดลขนาดใหญ่บนเครื่องได้

    • ฉันมักใช้โควตา Claude Max จนเกินอยู่บ่อย ๆ เลยต้องอยู่รอดด้วย 2x RTX3090 กับโมเดล quantized ของ Qwen3
      การโฮสต์เองมีคุณค่าในแง่ ความเป็นส่วนตัวและความพร้อมใช้งาน
      โดยเฉพาะเมื่อจำเป็นต้องมีทางเลือกเผื่อกฎระเบียบดิจิทัลของสหรัฐจะเข้มงวดขึ้น
    • ต่อให้เป็นโมเดล open-weight แต่ข้อมูลฝึกและ เกณฑ์การเซ็นเซอร์ ก็ยังไม่เปิดเผยอยู่ดี
      ถึงอย่างนั้นข้อดีคือยังแก้อคติได้ด้วยการ fine-tune
    • เครื่อง Strix Halo ที่มี VRAM 128GB ราคาอยู่แถว ๆ 3,000 ดอลลาร์ และรันโมเดลที่ดีพอสมควรในเครื่องได้
      แนะนำ GPT-OSS 120GB, Qwen Coder Next 80B, Step 3.5 Flash
      คาดว่าในอีก 1~2 ปี ฮาร์ดแวร์ผู้บริโภคก็น่าจะรัน โมเดลระดับ 512GB ได้
    • แทนที่จะใช้ macOS การตั้ง กล่อง inference แบบ Linux headless ไว้ที่บ้านก็เป็นไอเดียที่ดี
      เป็นการกลับมาของโฮมเน็ตเวิร์ก
    • ฉันคิดว่าสิ่งสำคัญกว่าการโฮสต์เองคือ การทำให้บริการโฮสต์กลายเป็นสินค้าโภคภัณฑ์
      แก่นสำคัญคืออิสระในการเปลี่ยนผู้ให้บริการได้ทุกเมื่อ
  • ฉันใช้ GLM-4.7 มาสองสามสัปดาห์แล้ว และมันอยู่ระดับใกล้เคียง Sonnet
    เพียงแต่ต้องสั่งให้ชัดเจนกว่า
    งานใหญ่ยังคงใช้สาย Anthropic แต่สำหรับ งานเล็กและชัดเจน GLM คุ้มราคาที่สุด

    • ฉันก็มีประสบการณ์คล้ายกัน
      ถ้าปล่อย GLM-4.7 ไว้ลำพัง มันมี แนวโน้มจะสร้างโลกขึ้นมาเองโดยไม่จำเป็น
      แต่สำหรับงานเล็ก ๆ มันใกล้เคียง Sonnet และราคาถูกมาก จึงมีประโยชน์ในฐานะโมเดลเสริม
    • ช่วง 6~8 เดือนที่ผ่านมา ฉันใช้แต่ Sonnet ส่วน Opus มักมี บั๊กกินโทเคนไม่ยั้ง
      ถ้าโมเดลเปิดพัฒนาไปอีกสัก 6 เดือน ฉันก็พร้อมจะย้ายแล้ว
  • ตอนนี้ MiniMax M2.5 ก็ใช้งานได้ใน Chat UI ตั้งแต่วันนี้
    GLM ดีกว่าสำหรับงานโค้ด แต่ฉันใช้ MiniMax บ่อยกับงานประจำวันเพราะ ความเร็วและความสามารถในการเรียกใช้เครื่องมือ

  • โมเดลใหม่ถูกปล่อยบน OpenRouter แล้ว
    ในเบนช์มาร์กส่วนตัวของฉัน ความสามารถในการทำตามคำสั่ง อ่อนมาก
    เป็นการทดสอบที่ใช้รูปแบบ chat.md + mcps แต่ทำได้ไม่ถูกต้อง

    • รู้สึกว่าฟอร์แมตการเรียกใช้เครื่องมือแบบคัสตอมถูกฝึกมาไม่เหมือนกันในแต่ละโมเดล จึง ยากที่จะทำให้ได้ความสม่ำเสมอ
      อยากรู้ว่าได้ผลลัพธ์แบบไหนกับโมเดลแนวหน้าตัวอื่นบ้าง
    • ฉันชอบไอเดียของ chat.md
      ฉันเองก็กำลังทำโปรแกรมแก้ไขข้อความที่ใช้คีย์ไบน์ดิงแบบ vim อยู่ และแนวทางนี้อาจเป็น แรงบันดาลใจด้าน UI ได้
      กำลังคิดจะเพิ่มฟังก์ชันพับข้อความที่ไม่จำเป็น
    • ปัญหาอาจเป็น คุณภาพของผู้ให้บริการบน OpenRouter ก็ได้
      บางครั้งประสิทธิภาพก็แย่จริง ๆ
    • OpenRouter มักโฮสต์ โมเดลที่ผ่านการ quantize ทำให้คุณภาพลดลง
      ถ้าเป็นไปได้ควรใช้ผู้ให้บริการต้นทางโดยตรง
  • รู้สึกว่า GLM-4.7-Flash เป็น โมเดลอัจฉริยะตัวแรกที่ใช้เขียนโค้ดในเครื่องได้จริง
    มันอยู่ระดับใกล้เคียง Claude 4.5 Haiku และ กระบวนการให้เหตุผลโปร่งใส ทำให้เข้าใจได้ว่าทำไมถึงตัดสินใจแบบนั้น
    ดีกว่า Devstral 2 Small หรือ Qwen-Coder-Next มาก

    • minimax-m.2 ก็อยู่ใกล้ระดับนั้นพอสมควร
  • ฉันใช้ GLM 4.7 บน opencode
    แม้จะไม่ใช่ตัวที่ดีที่สุด แต่ด้วย โควตาการใช้งานที่ใจกว้าง ก็เลยใช้ได้ทั้งวัน
    โมเดลใหม่ยังเข้าถึงได้จำกัดอยู่ แต่ก็กำลังรอคอย

  • ฉันลองใช้โมเดลใหม่บน opencode แป๊บหนึ่งแล้ว ค่อนข้างน่าประทับใจ
    แม้จะไม่ใช่ นวัตกรรมแบบก้าวกระโดดครั้งใหญ่ แต่ก็ดีขึ้นจาก 4.7 อย่างชัดเจน
    ความจำและ ความเสถียรในการทำงานระยะยาว ดีขึ้นอย่างเห็นได้ชัด

 
jinifor 2026-02-12

ราคาค่าสมัครสมาชิกขึ้นแล้วนะ

 
princox 2026-02-13

ส่วนลด 50% ที่เคยให้ตอนสมัครครั้งแรกหายไปแล้วครับ..

 
fanotify 2026-02-12

เดิมทีราคาโปรโมชันช่วงเปิดตัวสำหรับ Max อยู่ที่ $360 ต่อปี แต่ตอนนี้กลายเป็น $672 แล้ว...