4 คะแนน โดย GN⁺ 2025-12-03 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • Mistral 3 ซีรีส์ เป็นตระกูลโมเดล AI โอเพ่นซอร์สรุ่นใหม่ที่ประกอบด้วยโมเดลขนาดเล็ก 3B, 8B และ 14B และ Mistral Large 3 ที่มีพารามิเตอร์ที่ใช้งานได้ 41B และพารามิเตอร์รวม 675B
  • โมเดลทั้งหมดเปิดเผยภายใต้ Apache 2.0 ทำให้นักพัฒนาและองค์กรสามารถใช้งานและปรับแต่งได้อย่างเสรี
  • Mistral Large 3 ใช้โครงสร้าง Mixture-of-Experts ที่ได้รับการฝึกด้วย NVIDIA H200 GPU 3000 ตัว เพื่อให้ได้ประสิทธิภาพระดับแนวหน้าทั้งในการสนทนาหลายภาษาและความเข้าใจภาพ
  • Ministral 3 ถูกออกแบบมาเพื่อสภาพแวดล้อม edge โดยมีประสิทธิภาพต่อราคาโดดเด่น และ รุ่น reasoning บันทึกความแม่นยำ 85% ใน AIME '25
  • Mistral 3 สามารถใช้ได้ทันทีบน Mistral AI Studio, Hugging Face, AWS, Azure และแพลตฟอร์มสำคัญอื่น ๆ และมุ่งขยายระบบนิเวศโอเพ่น AI

ภาพรวม Mistral 3

  • Mistral 3 คือ ตระกูลโมเดลรุ่นต่อไปของ Mistral AI ประกอบด้วยโมเดลหนาแน่นขนาดเล็ก (3B, 8B, 14B) และโมเดล sparse ขนาดใหญ่ Mistral Large 3
    • Mistral Large 3 เป็นโครงสร้าง Mixture-of-Experts (MoE) ที่มี 41B พารามิเตอร์ที่ใช้งานได้ และ 675B พารามิเตอร์รวม
    • โมเดลทั้งหมดเปิดให้เข้าถึงได้ภายใต้ ลิขสิทธิ์ Apache 2.0 เพื่อให้ชุมชนโอเพ่นซอร์สนำไปใช้ได้
  • โมเดลถูกให้มาใน รูปแบบไฟล์บีบอัดที่หลากหลาย เพื่อเพิ่มการเข้าถึงผ่านการนำไปใช้แบบกระจาย
  • ตระกูล Ministral ได้รับการจัดอันดับว่าเป็นโมเดล OSS ที่มี อัตราส่วนต้นทุนต่อประสิทธิภาพ สูงที่สุด

Mistral Large 3: โมเดลระดับสูงสุดจากน้ำหนักเปิด

  • Mistral Large 3 เป็นโมเดล open-weight ที่ฝึกจากต้นแบบด้วย NVIDIA H200 GPU 3000 ตัว
    • เป็นโมเดล Mixture-of-Experts ตัวแรกหลังจากซีรีส์ Mixtral ซึ่งสะท้อนความก้าวหน้าของเทคโนโลยี pre-training ของ Mistral
  • หลังการฝึกแล้ว มีผลการทำงานในระดับเทียบเท่ากับโมเดล open-weight ชั้นนำสูงสุดในด้านประสิทธิภาพ prompt ทั่วไป และ
    ความเข้าใจภาพ และ การสนทนาหลายภาษาที่ไม่ใช่ภาษาอังกฤษ ก็ทำผลงานได้ยอดเยี่ยม
  • ในกระดานผู้นำ LMArena ได้รับ อันดับ 2 ในกลุ่มโมเดล OSS non-reasoning และอันดับ 6 ในกลุ่มโมเดล OSS โดยรวม
  • เปิดตัว เวอร์ชัน base และ เวอร์ชันการปรับแต่งแบบ instruct แล้ว และ เวอร์ชัน reasoning จะเปิดตัวเร็ว ๆ นี้

ความร่วมมือกับ NVIDIA·vLLM·Red Hat

  • Mistral Large 3 เข้าถึงได้ง่ายในชุมชนโอเพ่นซอร์สผ่านความร่วมมือกับ vLLM และ Red Hat
    • มีการจัดเตรียม checkpoint รูปแบบ NVFP4 ที่สร้างด้วย llm-compressor
    • ผ่าน vLLM สามารถรันได้อย่างมีประสิทธิภาพบนระบบ Blackwell NVL72, 8×A100, 8×H100
  • จากความร่วมมือกับ NVIDIA ได้มีการสนับสนุนการ inference ความละเอียดต่ำใน TensorRT-LLM, SGLang เป็นต้น
    • รวมการใช้งาน kernel Blackwell Attention และ MoE, การให้บริการแบบแยก prefill/decode, และ speculative decoding
  • ให้การปรับใช้ที่เหมาะสมสำหรับสภาพแวดล้อม edge เช่น DGX Spark, RTX PC และอุปกรณ์ Jetson

Ministral 3: โมเดลอัจฉริยะสำหรับ edge

  • ตระกูล Ministral 3 สำหรับ สภาพแวดล้อม edge และ local มีให้เลือก 3 ขนาดคือ 3B, 8B, 14B
    • แต่ละโมเดลเผยแพร่เป็น 3 รูปแบบคือ base, instruct, reasoning
    • ทุกรูปแบบรวมความสามารถ ความเข้าใจภาพ และ การประมวลผลหลายภาษา
  • เป็นโมเดล OSS ที่มี อัตราส่วนต้นทุนต่อประสิทธิภาพ สูงสุด โดย
    instruct model แสดงผลเทียบเท่าหรือดีกว่าโมเดลคู่แข่ง ในขณะเดียวกัน ลดจำนวนโทเค็นลงเหลือประมาณ 1 ใน 10
  • รุ่น reasoning มีจุดแข็งในสภาพแวดล้อมที่เน้นความแม่นยำ และ
    รุ่น 14B ทำความแม่นยำได้ 85% ใน AIME '25

การเผยแพร่และการเข้าถึง

  • Mistral 3 พร้อมใช้งานได้ทันทีบนแพลตฟอร์มเหล่านี้
    • Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face, Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI, Together AI
    • จะพร้อมใช้งานในเร็ว ๆ นี้บน NVIDIA NIM และ AWS SageMaker
  • มีบริการ การฝึกโมเดลแบบปรับแต่งสำหรับองค์กร
    • รองรับการทำงานเฉพาะโดเมน การปรับปรุงประสิทธิภาพบนชุดข้อมูลขององค์กรเอง และการปรับใช้ในสภาพแวดล้อมพิเศษ

คุณค่าหลักของ Mistral 3

  • ประสิทธิภาพแนวหน้าและการเข้าถึงแบบเปิด: นำเสนอประสิทธิภาพระดับโมเดลปิดในรูปแบบโอเพ่นซอร์ส
  • รองรับมัลติโมดัลและหลายภาษา: สามารถทำความเข้าใจข้อความ ภาพ และการให้เหตุผลได้ในมากกว่า 40 ภาษา
  • ประสิทธิภาพที่ปรับขยายได้: ครอบคลุมช่วงพารามิเตอร์ 3B~675B รองรับตั้งแต่ edge ถึง enterprise
  • ความยืดหยุ่นในการใช้งาน: นำไปใช้ได้ในหลายเวิร์กโฟลว์ ตั้งแต่การเขียนโค้ด การวิเคราะห์เอกสาร ไปจนถึงการใช้เครื่องมือ

ขั้นตอนถัดไป

  • เอกสารและข้อมูลทางเทคนิคเผยแพร่ใน Mistral Docs และ AI Governance Hub
  • ใช้งาน API ได้ทันทีผ่าน Hugging Face และ แพลตฟอร์ม Mistral AI
  • ดูแลช่องทางรับคำขอ การฝึกและ fine-tuning แบบองค์กร
  • การมีส่วนร่วมในชุมชนทำได้ที่ Twitter/X, Discord, GitHub

สรุป

  • Mistral 3 มุ่งขยายระบบนิเวศโอเพ่น AI โดยยึดหลัก ความโปร่งใส การเข้าถึง และการพัฒนาร่วมกัน
  • เปิดประตูสู่ความเป็นไปได้ใหม่ในด้าน reasoning, ประสิทธิภาพ และการใช้งานจริง และก้าวขึ้นเป็นโมเดลโอเพ่นรุ่นต่อไปที่ทำให้ “การเข้าใจแปรสู่การลงมือทำ”

1 ความคิดเห็น

 
GN⁺ 2025-12-03
ความเห็นจาก Hacker News
  • ฉันใช้ large language model (LLM) ที่ phrasing.app เพื่อจัดข้อมูลให้อยู่ในรูปแบบที่สม่ำเสมอ
    ช่วงไม่กี่เดือนที่ผ่านมาเพิ่งเปลี่ยนมาใช้ mistral-3-medium-0525 เพราะ gpt-5 มักให้เอาต์พุตแปลก ๆ จนลำบาก
    Mistral เร็ว ราคาถูก และทำตามคำสั่งเรื่องรูปแบบได้แม่นยำ ใช้งานจริงดีกว่า benchmark มาก
    นาน ๆ ที (0.1%) จะมีผลลัพธ์แปลก ๆ แต่ก็ยังเสถียรกว่า gpt-5 ที่มีอัตราพลาด 15% มาก
    เดี๋ยวจะลองทดสอบโมเดลใหม่ ๆ แล้วมาแชร์ผลอีกที

    • เมื่อก่อนฉันสมัครใช้แชตบอตหลายเจ้า แต่ตอนนี้สลับใช้ Grok, ChatGPT, Gemini, Deepseek, Mistral แทน
      สำหรับ API ข้อดีใหญ่ที่สุดคือโมเดล ทำงานได้ตามที่คาดไว้
      ตอนนี้เลยเลือกใช้โมเดลที่ต้องการผ่าน Openrouter
      ช่วงหลังที่แชตบอตแบบมีโฆษณาเพิ่มขึ้น ฉันคิดว่าเป็นเพราะผู้ใช้จริงแยกความต่างไม่ค่อยออก ต่างจาก benchmark เลยยกเลิกการสมัครแบบเสียเงิน
      วันนี้ OpenAI ยังเสนอทดลองใช้ฟรีหนึ่งเดือนอีก เหมือนคิดว่าฉันลืมไปแล้วว่าเคยใช้เมื่อสองเดือนก่อน
    • ฉันก็มีประสบการณ์คล้ายกัน แม้โมเดลของ Mistral จะไม่ใช่อันดับหนึ่งบน benchmark แต่สำหรับงานง่าย ๆ อย่าง การจัดหมวดหมู่หรือการสรุป มันคุ้มที่สุด
      โดยเฉพาะถ้าใช้ mistral-small ผ่าน batch API จะคุ้มค่าต่อราคามาก
    • ฉันรู้สึกว่าวิธีประเมิน LLM ด้วย benchmark มี ข้อจำกัด
      การ overfit อาจทำให้ความใช้งานจริงแย่ลง และเหตุผลที่มี Chatbot Arena ก็เพราะการประเมินจากการใช้งานจริงแบบนี้
      แต่ถึงอย่างนั้นก็ยังมีเสียงวิจารณ์ว่ามันเอนเอียงไปทางการจัดรูปแบบหรือการประจบผู้ใช้
      สุดท้ายฉันคิดว่าเราต้องการ โมเดลที่เฉพาะทางตามงาน มากกว่านี้
    • ขอบคุณที่แชร์กรณีใช้งานของโมเดล Mistral
      แต่คำว่า “Hand-crafted by humans” ของ phrasing.app ก็ให้ความรู้สึก ย้อนแย้ง นิดหน่อย เพราะจริง ๆ แล้วใช้ LLM ระดับสูงอยู่
    • อยากรู้ว่าที่บอกว่า gpt-5 ให้เอาต์พุตแปลก ๆ 15% ของเวลานั้นหมายถึงแบบนั้นจริงไหม
      หรือคุณกำลังเอาอัตราความผิดพลาดของ Mistral ไปเทียบกับอัตราล้มเหลวของ gpt-5.1 ในงานซับซ้อน?
      แล้วก็สงสัยว่า Mistral มี โมเดล Tool Use ไหม ถ้ามีโมเดลใหม่สำหรับงานเขียนโค้ดก็น่าจะดี
  • น่าสนใจที่โมเดลขนาดใหญ่ตัวใหม่นี้ใช้ สถาปัตยกรรม DeepseekV2
    แม้หน้าเว็บทางการจะไม่ได้พูดถึง แต่ฉันคิดว่าเป็นเรื่องดีที่โมเดลโอเพนซอร์สนำโครงสร้างสมัยใหม่มาใช้
    K2 ก็ใช้แนวทางคล้ายกัน และถ้าดูโค้ดจริง (mistral_large_3.py) จะเห็นว่ามันอิงกับ DeepseekV3
    อย่างที่เขาว่า “วิทยาศาสตร์ก้าวหน้าได้ด้วยความเปิดเผยและการแบ่งปันเสมอ” ความโปร่งใสแบบนี้จึงน่ายินดี
    ตอนนี้ฉันกำลังจะลองทดสอบโมเดล 14B ที่บ้าน และก็คาดหวังกับการเพิ่มความสามารถด้าน Vision ด้วย

    • สุดท้ายแล้วดูเหมือนทุ่ม R&D ไปกับการโคลน Deepseek และใส่แรงกับฟีเจอร์เพิ่มเติมเพียงอย่างเดียวอย่าง Vision ไม่มากนัก
      ในหน้า Hugging Face ก็ระบุชัดว่า Mistral Large 3 ยังตามหลังโมเดลที่เน้น Vision โดยเฉพาะในงานมัลติโมดัล
    • เอาจริง ๆ ตอนนี้ฉันคิดว่ามากกว่าความต่างของ สถาปัตยกรรม สิ่งที่กำหนดประสิทธิภาพโมเดลคือข้อมูล การจูน และ pipeline
    • การเรียกร้องให้เปิดทุกอย่าง แต่พอมีของเปิดออกมาแล้วกลับโจมตีคนที่ใช้ มันดูเป็น มาตรฐานสองชั้น
  • น่าทึ่งมากที่ โมเดล Vision ขนาด 3B รันได้ตรงในเบราว์เซอร์
    แค่ดาวน์โหลดโมเดล 3GB มาก็รันได้ทันที และมี เดโมบน Hugging Face
    บทความของ Simon Willison ก็น่าอ่านประกอบ

    • เทคโนโลยีแบบนี้น่าจะเอาไปทำเครื่องมือด้านการเข้าถึงอย่าง เครื่องมือบรรยายวิดีโอแบบเรียลไทม์สำหรับผู้พิการทางสายตา ได้
      ฉันนึกภาพฟีเจอร์ที่ไม่ใช่แค่พูดเสียง แต่ยังอธิบายการกระทำในวิดีโอได้ด้วย
  • ดีใจที่ได้เห็น Mistral จากยุโรปกลับมาอีกครั้งหลังหายไปนาน
    การกลับมาเป็นโอเพนซอร์สภายใต้ไลเซนส์ Apache 2.0 ก็เป็นเรื่องดี
    ช่วงหนึ่งมันเคยเป็นตัวท็อปในกลุ่มโมเดลขนาดเล็กสำหรับ consumer GPU และฉันก็หวังว่า Ministral 14B รอบนี้จะทำผลงานได้ดีสมกับ benchmark

    • แต่จริง ๆ แล้วฉันคิดว่าความสำเร็จแบบนี้เกิดขึ้นได้เพราะ เงินทุน VC จากสหรัฐฯ
      ถ้าอยู่ในยุโรปล้วน ๆ ก็คงยากจะหาเงินฝึก AI ในระดับนี้ได้
  • โมเดลใหม่ดูเจ๋งก็จริง แต่เสียดายที่ไม่มีการเปรียบเทียบกับโมเดล SOTA อย่าง OpenAI·Google·Anthropic
    เพราะทำให้มองตำแหน่งโดยรวมได้ยาก

    • ถ้าดูผลใน LMArena Mistral Large 3 อยู่อันดับ 28 และคะแนนก็ไม่ได้ห่างจากรุ่นท็อปมาก
      โมเดลอันดับหนึ่งได้ 1491 คะแนน ส่วน Mistral ได้ 1418 คะแนน ดังนั้น ช่องว่างด้านประสิทธิภาพจึงเล็ก
    • แต่ดูเหมือนบริษัทต่าง ๆ จะเลี่ยงการเปรียบเทียบแบบนี้เพราะอาจติด ข้อกำหนดเรื่องโฆษณา
    • ยังไง Mistral ก็น่าจะรู้อยู่แล้วว่าแข่งกับโมเดลปิดได้ยาก
      การไม่เทียบกับ GPT-OSS ด้วยก็ดูเป็นท่าทีที่ค่อนข้าง อนุรักษ์นิยม
    • แค่ไม่เปิดเผยผลการเปรียบเทียบก็สื่ออะไรได้มากอยู่แล้วในตัวมันเอง
  • ขอเอาใจช่วยความพยายามของยุโรป

    • แต่อย่าลืมว่าแม้แต่ในยุโรปเองก็ยังมีงานวิจัย AI ที่คึกคักมากอย่าง DeepMind ในลอนดอน
    • อยากถ่วงดุลด้วยมุกว่า “Windows 11 คือผลงานชิ้นเอกสูงสุดของอเมริกา”
  • พูดกันตรง ๆ รู้สึกว่าเมื่อวาน Deepseek 3.2 แย่งความสนใจไปหมดแล้ว
    เลยเสียดายที่การเปรียบเทียบรอบนี้อ้างอิง Deepseek 3.1
    ตามข่าวทางการ 3.2 มีการปรับปรุงครั้งใหญ่มาก

  • ฉันยังไม่เข้าใจ แรงจูงใจ ในการปล่อยน้ำหนักโมเดลดี ๆ ออกมา
    การที่ OpenAI ปล่อยอะไรอย่าง gpt-oss ออกมาอาจเป็นเรื่อง PR เพื่อ benchmark ก็ได้
    และดูเหมือนบริษัทจีนก็ใช้กลยุทธ์คล้ายกันเพื่อสั่นคลอนตำแหน่งของบิ๊กเทคสหรัฐฯ
    เลยสงสัยว่าในอนาคตเราจะยังได้เห็น โมเดล open-weight ดี ๆ ออกมาเรื่อย ๆ ไหม

    • เพราะหาเงินจากโมเดลปิดอย่างเดียวมันยาก
      open-weight เปิดช่องรายได้รองอย่าง บริการ fine-tuning สำหรับองค์กร
      ความโปร่งใส การควบคุม ความเป็นส่วนตัว และการลดต้นทุนเป็นเรื่องสำคัญสำหรับองค์กร
      ดังนั้น ecosystem แบบเปิดนี้อาจ ค่อย ๆ กินส่วนแบ่งของโมเดลปิด ได้ในระยะยาว
      ดูบริการที่เกี่ยวข้องได้ที่ Mistral Custom Model Training
    • gpt-oss ไม่ได้มีไว้เพื่อ benchmark อย่างเดียว แต่มันเก่งเรื่อง การแก้โจทย์คณิตศาสตร์ มากจริง ๆ
      ในการแข่งขัน AIME3 ของ Kaggle ก็ยังรักษาอันดับสูงไว้ได้
    • ตอนนี้โมเดลรายได้ยังไม่ชัดเจน ดังนั้นบริษัท AI เลยโฟกัสกับการ หาเงินจาก VC มากกว่าการสร้างโมเดลที่ดีที่สุด
      การปล่อยโมเดลเปิดช่วยให้มูลค่าบริษัทพุ่งและได้เปรียบในการแย่ง GPU
      แต่ถ้าสุดท้ายไม่มีโมเดลธุรกิจที่ยั่งยืนจริง ๆ ก็จะเป็นปัญหาใหญ่
    • gpt-oss มี ประสิทธิภาพในการเรียกใช้เครื่องมือ ยอดเยี่ยมและโดยรวมเสถียรดี
    • Google ให้ความรู้สึกแรงมากว่า ปั่น benchmark
      Gemini อาจนำบน benchmark แต่การใช้งานจริงกลับด้อยกว่า
  • ลองเอา คะแนน benchmark แบบรวม ของหลายโมเดลมาเทียบกัน
    Gemini 3.0 Pro ได้ 84.8 เป็นอันดับหนึ่ง, DeepSeek 3.2 ได้ 83.6, GPT-5.1 ได้ 69.2
    Mistral Large 3 ได้เพียง 41.9 แต่ โมเดล 14B·8B·3B อยู่ในระดับ SOTA
    และไม่มี ปัญหาเรื่องการเซ็นเซอร์ แบบ Qwen3

    • ฉันสงสัยกับช่องว่างขนาดใหญ่ระหว่าง Gemini 3 กับ GPT-5.1/Opus 4.5
      อยากรู้ว่า Gemini เด่นมากในด้านไหนถึงได้ทิ้งห่างขนาดนั้น
  • บน benchmark Gemini อาจดีที่สุด แต่ในการใช้งานจริงกลับรู้สึกว่า สู้ ChatGPT หรือ Claude ไม่ได้
    มันพูดเพ้อเจ้อบ่อยกว่า และเหมือน Google จะดันแต่คะแนน benchmark
    หวังว่าโอเพนซอร์สอย่าง Mistral จะค่อย ๆ กินตลาดแบบนี้

    • เป้าหมายของ LLM แบบ open-weight ไม่ใช่การเอาชนะโมเดลปิด
      แต่มันเป็น ตัวถ่วงดุลของ ecosystem และมีความหมายในแง่ป้องกันการผูกขาด
    • ฉันเคยใช้ Gemini ตอนกำลังเรียนรู้การตั้งค่า on-prem k8s cluster แล้วพบว่ามันแม่นมากในหัวข้อพวกนี้
      น่าจะเป็นเพราะเป็นด้านที่อยู่ในข้อมูลฝึกอย่างดี
    • สำหรับคำถามที่ฉันถาม Gemini 3 มี อาการหลอนน้อยกว่า GPT-5.1
    • ส่วนตัวแล้ว Gemini คือโมเดลที่ทำให้ผิดหวังที่สุด และรู้สึกว่า การโปรโมตที่มากเกินไป มันไม่เป็นธรรมชาติ
    • สำหรับงานที่ไม่ใช่โค้ด Gemini อาจอ้างอิงหลักฐานได้ง่ายกว่าเพราะมี การเชื่อมกับ Google Search