- Mistral 3 ซีรีส์ เป็นตระกูลโมเดล AI โอเพ่นซอร์สรุ่นใหม่ที่ประกอบด้วยโมเดลขนาดเล็ก 3B, 8B และ 14B และ Mistral Large 3 ที่มีพารามิเตอร์ที่ใช้งานได้ 41B และพารามิเตอร์รวม 675B
- โมเดลทั้งหมดเปิดเผยภายใต้ Apache 2.0 ทำให้นักพัฒนาและองค์กรสามารถใช้งานและปรับแต่งได้อย่างเสรี
- Mistral Large 3 ใช้โครงสร้าง Mixture-of-Experts ที่ได้รับการฝึกด้วย NVIDIA H200 GPU 3000 ตัว เพื่อให้ได้ประสิทธิภาพระดับแนวหน้าทั้งในการสนทนาหลายภาษาและความเข้าใจภาพ
- Ministral 3 ถูกออกแบบมาเพื่อสภาพแวดล้อม edge โดยมีประสิทธิภาพต่อราคาโดดเด่น และ รุ่น reasoning บันทึกความแม่นยำ 85% ใน AIME '25
- Mistral 3 สามารถใช้ได้ทันทีบน Mistral AI Studio, Hugging Face, AWS, Azure และแพลตฟอร์มสำคัญอื่น ๆ และมุ่งขยายระบบนิเวศโอเพ่น AI
ภาพรวม Mistral 3
- Mistral 3 คือ ตระกูลโมเดลรุ่นต่อไปของ Mistral AI ประกอบด้วยโมเดลหนาแน่นขนาดเล็ก (3B, 8B, 14B) และโมเดล sparse ขนาดใหญ่ Mistral Large 3
- Mistral Large 3 เป็นโครงสร้าง Mixture-of-Experts (MoE) ที่มี 41B พารามิเตอร์ที่ใช้งานได้ และ 675B พารามิเตอร์รวม
- โมเดลทั้งหมดเปิดให้เข้าถึงได้ภายใต้ ลิขสิทธิ์ Apache 2.0 เพื่อให้ชุมชนโอเพ่นซอร์สนำไปใช้ได้
- โมเดลถูกให้มาใน รูปแบบไฟล์บีบอัดที่หลากหลาย เพื่อเพิ่มการเข้าถึงผ่านการนำไปใช้แบบกระจาย
- ตระกูล Ministral ได้รับการจัดอันดับว่าเป็นโมเดล OSS ที่มี อัตราส่วนต้นทุนต่อประสิทธิภาพ สูงที่สุด
Mistral Large 3: โมเดลระดับสูงสุดจากน้ำหนักเปิด
- Mistral Large 3 เป็นโมเดล open-weight ที่ฝึกจากต้นแบบด้วย NVIDIA H200 GPU 3000 ตัว
- เป็นโมเดล Mixture-of-Experts ตัวแรกหลังจากซีรีส์ Mixtral ซึ่งสะท้อนความก้าวหน้าของเทคโนโลยี pre-training ของ Mistral
- หลังการฝึกแล้ว มีผลการทำงานในระดับเทียบเท่ากับโมเดล open-weight ชั้นนำสูงสุดในด้านประสิทธิภาพ prompt ทั่วไป และ
ความเข้าใจภาพ และ การสนทนาหลายภาษาที่ไม่ใช่ภาษาอังกฤษ ก็ทำผลงานได้ยอดเยี่ยม
- ในกระดานผู้นำ LMArena ได้รับ อันดับ 2 ในกลุ่มโมเดล OSS non-reasoning และอันดับ 6 ในกลุ่มโมเดล OSS โดยรวม
- เปิดตัว เวอร์ชัน base และ เวอร์ชันการปรับแต่งแบบ instruct แล้ว และ เวอร์ชัน reasoning จะเปิดตัวเร็ว ๆ นี้
ความร่วมมือกับ NVIDIA·vLLM·Red Hat
- Mistral Large 3 เข้าถึงได้ง่ายในชุมชนโอเพ่นซอร์สผ่านความร่วมมือกับ vLLM และ Red Hat
- มีการจัดเตรียม checkpoint รูปแบบ NVFP4 ที่สร้างด้วย llm-compressor
- ผ่าน vLLM สามารถรันได้อย่างมีประสิทธิภาพบนระบบ Blackwell NVL72, 8×A100, 8×H100
- จากความร่วมมือกับ NVIDIA ได้มีการสนับสนุนการ inference ความละเอียดต่ำใน TensorRT-LLM, SGLang เป็นต้น
- รวมการใช้งาน kernel Blackwell Attention และ MoE, การให้บริการแบบแยก prefill/decode, และ speculative decoding
- ให้การปรับใช้ที่เหมาะสมสำหรับสภาพแวดล้อม edge เช่น DGX Spark, RTX PC และอุปกรณ์ Jetson
Ministral 3: โมเดลอัจฉริยะสำหรับ edge
- ตระกูล Ministral 3 สำหรับ สภาพแวดล้อม edge และ local มีให้เลือก 3 ขนาดคือ 3B, 8B, 14B
- แต่ละโมเดลเผยแพร่เป็น 3 รูปแบบคือ base, instruct, reasoning
- ทุกรูปแบบรวมความสามารถ ความเข้าใจภาพ และ การประมวลผลหลายภาษา
- เป็นโมเดล OSS ที่มี อัตราส่วนต้นทุนต่อประสิทธิภาพ สูงสุด โดย
instruct model แสดงผลเทียบเท่าหรือดีกว่าโมเดลคู่แข่ง ในขณะเดียวกัน ลดจำนวนโทเค็นลงเหลือประมาณ 1 ใน 10
- รุ่น reasoning มีจุดแข็งในสภาพแวดล้อมที่เน้นความแม่นยำ และ
รุ่น 14B ทำความแม่นยำได้ 85% ใน AIME '25
การเผยแพร่และการเข้าถึง
- Mistral 3 พร้อมใช้งานได้ทันทีบนแพลตฟอร์มเหล่านี้
- Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face, Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI, Together AI
- จะพร้อมใช้งานในเร็ว ๆ นี้บน NVIDIA NIM และ AWS SageMaker
- มีบริการ การฝึกโมเดลแบบปรับแต่งสำหรับองค์กร
- รองรับการทำงานเฉพาะโดเมน การปรับปรุงประสิทธิภาพบนชุดข้อมูลขององค์กรเอง และการปรับใช้ในสภาพแวดล้อมพิเศษ
คุณค่าหลักของ Mistral 3
- ประสิทธิภาพแนวหน้าและการเข้าถึงแบบเปิด: นำเสนอประสิทธิภาพระดับโมเดลปิดในรูปแบบโอเพ่นซอร์ส
- รองรับมัลติโมดัลและหลายภาษา: สามารถทำความเข้าใจข้อความ ภาพ และการให้เหตุผลได้ในมากกว่า 40 ภาษา
- ประสิทธิภาพที่ปรับขยายได้: ครอบคลุมช่วงพารามิเตอร์ 3B~675B รองรับตั้งแต่ edge ถึง enterprise
- ความยืดหยุ่นในการใช้งาน: นำไปใช้ได้ในหลายเวิร์กโฟลว์ ตั้งแต่การเขียนโค้ด การวิเคราะห์เอกสาร ไปจนถึงการใช้เครื่องมือ
ขั้นตอนถัดไป
- เอกสารและข้อมูลทางเทคนิคเผยแพร่ใน Mistral Docs และ AI Governance Hub
- ใช้งาน API ได้ทันทีผ่าน Hugging Face และ แพลตฟอร์ม Mistral AI
- ดูแลช่องทางรับคำขอ การฝึกและ fine-tuning แบบองค์กร
- การมีส่วนร่วมในชุมชนทำได้ที่ Twitter/X, Discord, GitHub
สรุป
- Mistral 3 มุ่งขยายระบบนิเวศโอเพ่น AI โดยยึดหลัก ความโปร่งใส การเข้าถึง และการพัฒนาร่วมกัน
- เปิดประตูสู่ความเป็นไปได้ใหม่ในด้าน reasoning, ประสิทธิภาพ และการใช้งานจริง และก้าวขึ้นเป็นโมเดลโอเพ่นรุ่นต่อไปที่ทำให้ “การเข้าใจแปรสู่การลงมือทำ”
1 ความคิดเห็น
ความเห็นจาก Hacker News
ฉันใช้ large language model (LLM) ที่ phrasing.app เพื่อจัดข้อมูลให้อยู่ในรูปแบบที่สม่ำเสมอ
ช่วงไม่กี่เดือนที่ผ่านมาเพิ่งเปลี่ยนมาใช้ mistral-3-medium-0525 เพราะ gpt-5 มักให้เอาต์พุตแปลก ๆ จนลำบาก
Mistral เร็ว ราคาถูก และทำตามคำสั่งเรื่องรูปแบบได้แม่นยำ ใช้งานจริงดีกว่า benchmark มาก
นาน ๆ ที (0.1%) จะมีผลลัพธ์แปลก ๆ แต่ก็ยังเสถียรกว่า gpt-5 ที่มีอัตราพลาด 15% มาก
เดี๋ยวจะลองทดสอบโมเดลใหม่ ๆ แล้วมาแชร์ผลอีกที
สำหรับ API ข้อดีใหญ่ที่สุดคือโมเดล ทำงานได้ตามที่คาดไว้
ตอนนี้เลยเลือกใช้โมเดลที่ต้องการผ่าน Openrouter
ช่วงหลังที่แชตบอตแบบมีโฆษณาเพิ่มขึ้น ฉันคิดว่าเป็นเพราะผู้ใช้จริงแยกความต่างไม่ค่อยออก ต่างจาก benchmark เลยยกเลิกการสมัครแบบเสียเงิน
วันนี้ OpenAI ยังเสนอทดลองใช้ฟรีหนึ่งเดือนอีก เหมือนคิดว่าฉันลืมไปแล้วว่าเคยใช้เมื่อสองเดือนก่อน
โดยเฉพาะถ้าใช้ mistral-small ผ่าน batch API จะคุ้มค่าต่อราคามาก
การ overfit อาจทำให้ความใช้งานจริงแย่ลง และเหตุผลที่มี Chatbot Arena ก็เพราะการประเมินจากการใช้งานจริงแบบนี้
แต่ถึงอย่างนั้นก็ยังมีเสียงวิจารณ์ว่ามันเอนเอียงไปทางการจัดรูปแบบหรือการประจบผู้ใช้
สุดท้ายฉันคิดว่าเราต้องการ โมเดลที่เฉพาะทางตามงาน มากกว่านี้
แต่คำว่า “Hand-crafted by humans” ของ phrasing.app ก็ให้ความรู้สึก ย้อนแย้ง นิดหน่อย เพราะจริง ๆ แล้วใช้ LLM ระดับสูงอยู่
หรือคุณกำลังเอาอัตราความผิดพลาดของ Mistral ไปเทียบกับอัตราล้มเหลวของ gpt-5.1 ในงานซับซ้อน?
แล้วก็สงสัยว่า Mistral มี โมเดล Tool Use ไหม ถ้ามีโมเดลใหม่สำหรับงานเขียนโค้ดก็น่าจะดี
น่าสนใจที่โมเดลขนาดใหญ่ตัวใหม่นี้ใช้ สถาปัตยกรรม DeepseekV2
แม้หน้าเว็บทางการจะไม่ได้พูดถึง แต่ฉันคิดว่าเป็นเรื่องดีที่โมเดลโอเพนซอร์สนำโครงสร้างสมัยใหม่มาใช้
K2 ก็ใช้แนวทางคล้ายกัน และถ้าดูโค้ดจริง (
mistral_large_3.py) จะเห็นว่ามันอิงกับ DeepseekV3อย่างที่เขาว่า “วิทยาศาสตร์ก้าวหน้าได้ด้วยความเปิดเผยและการแบ่งปันเสมอ” ความโปร่งใสแบบนี้จึงน่ายินดี
ตอนนี้ฉันกำลังจะลองทดสอบโมเดล 14B ที่บ้าน และก็คาดหวังกับการเพิ่มความสามารถด้าน Vision ด้วย
ในหน้า Hugging Face ก็ระบุชัดว่า Mistral Large 3 ยังตามหลังโมเดลที่เน้น Vision โดยเฉพาะในงานมัลติโมดัล
น่าทึ่งมากที่ โมเดล Vision ขนาด 3B รันได้ตรงในเบราว์เซอร์
แค่ดาวน์โหลดโมเดล 3GB มาก็รันได้ทันที และมี เดโมบน Hugging Face
บทความของ Simon Willison ก็น่าอ่านประกอบ
ฉันนึกภาพฟีเจอร์ที่ไม่ใช่แค่พูดเสียง แต่ยังอธิบายการกระทำในวิดีโอได้ด้วย
ดีใจที่ได้เห็น Mistral จากยุโรปกลับมาอีกครั้งหลังหายไปนาน
การกลับมาเป็นโอเพนซอร์สภายใต้ไลเซนส์ Apache 2.0 ก็เป็นเรื่องดี
ช่วงหนึ่งมันเคยเป็นตัวท็อปในกลุ่มโมเดลขนาดเล็กสำหรับ consumer GPU และฉันก็หวังว่า Ministral 14B รอบนี้จะทำผลงานได้ดีสมกับ benchmark
ถ้าอยู่ในยุโรปล้วน ๆ ก็คงยากจะหาเงินฝึก AI ในระดับนี้ได้
โมเดลใหม่ดูเจ๋งก็จริง แต่เสียดายที่ไม่มีการเปรียบเทียบกับโมเดล SOTA อย่าง OpenAI·Google·Anthropic
เพราะทำให้มองตำแหน่งโดยรวมได้ยาก
โมเดลอันดับหนึ่งได้ 1491 คะแนน ส่วน Mistral ได้ 1418 คะแนน ดังนั้น ช่องว่างด้านประสิทธิภาพจึงเล็ก
การไม่เทียบกับ GPT-OSS ด้วยก็ดูเป็นท่าทีที่ค่อนข้าง อนุรักษ์นิยม
ขอเอาใจช่วยความพยายามของยุโรป
พูดกันตรง ๆ รู้สึกว่าเมื่อวาน Deepseek 3.2 แย่งความสนใจไปหมดแล้ว
เลยเสียดายที่การเปรียบเทียบรอบนี้อ้างอิง Deepseek 3.1
ตามข่าวทางการ 3.2 มีการปรับปรุงครั้งใหญ่มาก
ฉันยังไม่เข้าใจ แรงจูงใจ ในการปล่อยน้ำหนักโมเดลดี ๆ ออกมา
การที่ OpenAI ปล่อยอะไรอย่าง gpt-oss ออกมาอาจเป็นเรื่อง PR เพื่อ benchmark ก็ได้
และดูเหมือนบริษัทจีนก็ใช้กลยุทธ์คล้ายกันเพื่อสั่นคลอนตำแหน่งของบิ๊กเทคสหรัฐฯ
เลยสงสัยว่าในอนาคตเราจะยังได้เห็น โมเดล open-weight ดี ๆ ออกมาเรื่อย ๆ ไหม
open-weight เปิดช่องรายได้รองอย่าง บริการ fine-tuning สำหรับองค์กร
ความโปร่งใส การควบคุม ความเป็นส่วนตัว และการลดต้นทุนเป็นเรื่องสำคัญสำหรับองค์กร
ดังนั้น ecosystem แบบเปิดนี้อาจ ค่อย ๆ กินส่วนแบ่งของโมเดลปิด ได้ในระยะยาว
ดูบริการที่เกี่ยวข้องได้ที่ Mistral Custom Model Training
ในการแข่งขัน AIME3 ของ Kaggle ก็ยังรักษาอันดับสูงไว้ได้
การปล่อยโมเดลเปิดช่วยให้มูลค่าบริษัทพุ่งและได้เปรียบในการแย่ง GPU
แต่ถ้าสุดท้ายไม่มีโมเดลธุรกิจที่ยั่งยืนจริง ๆ ก็จะเป็นปัญหาใหญ่
Gemini อาจนำบน benchmark แต่การใช้งานจริงกลับด้อยกว่า
ลองเอา คะแนน benchmark แบบรวม ของหลายโมเดลมาเทียบกัน
Gemini 3.0 Pro ได้ 84.8 เป็นอันดับหนึ่ง, DeepSeek 3.2 ได้ 83.6, GPT-5.1 ได้ 69.2
Mistral Large 3 ได้เพียง 41.9 แต่ โมเดล 14B·8B·3B อยู่ในระดับ SOTA
และไม่มี ปัญหาเรื่องการเซ็นเซอร์ แบบ Qwen3
อยากรู้ว่า Gemini เด่นมากในด้านไหนถึงได้ทิ้งห่างขนาดนั้น
บน benchmark Gemini อาจดีที่สุด แต่ในการใช้งานจริงกลับรู้สึกว่า สู้ ChatGPT หรือ Claude ไม่ได้
มันพูดเพ้อเจ้อบ่อยกว่า และเหมือน Google จะดันแต่คะแนน benchmark
หวังว่าโอเพนซอร์สอย่าง Mistral จะค่อย ๆ กินตลาดแบบนี้
แต่มันเป็น ตัวถ่วงดุลของ ecosystem และมีความหมายในแง่ป้องกันการผูกขาด
น่าจะเป็นเพราะเป็นด้านที่อยู่ในข้อมูลฝึกอย่างดี