OpenAI เปิดตัวโมเดลซีรีส์ GPT-OSS (gpt-oss-120b / gpt-oss-20b) ภายใต้ไลเซนส์ Apache 2.0 อย่างเป็นทางการ นี่คือโมเดล open-weight ที่เปิดตัวครั้งแรกในรอบ 6 ปีนับจาก GPT-2 และมีศักยภาพที่จะเปลี่ยนเกมของตลาดได้ทั้งด้านประสิทธิภาพและความคุ้มค่า
🧠 คุณสมบัติหลัก
- โมเดล 20B: โครงสร้าง Mixture of Experts (MoE)
• เปิดใช้งาน 4 จาก 128 experts → รักษาประสิทธิภาพไว้พร้อมลดต้นทุนการอนุมาน
• รองรับ FlashAttention, โทเค็น 128k และมี YaRN - โมเดล 20B: รันได้แม้ในสภาพแวดล้อม GPU 16GB (รวมถึง Apple Silicon)
📊 ผลการทดสอบ benchmark หลัก (อ้างอิง GPT-OSS-120B)
- MMLU: 90.0% (ใกล้เคียงกับ o4-mini)
- คณิตศาสตร์ AIME: 97.9% (อยู่ในระดับแถวหน้าทั้งคณิตศาสตร์และการใช้เครื่องมือ)
- Codeforces Elo: 2622 (ความสามารถด้านโค้ดก็ติดระดับบน)
- HealthBench: ทำผลงานได้ดีกว่า GPT-4o
- MMMLU (14 ภาษา): 81.3% → แข็งแกร่งด้านการให้เหตุผลหลายภาษาเช่นกัน
💡 การใช้งานจริง & ecosystem
- รันโมเดล 120B ได้บน GPU H100 80GB เพียงตัวเดียว
- รันโมเดล 20B แบบเรียลไทม์ได้แม้ในสภาพแวดล้อม 16GB
- ใช้งานร่วมกับ HuggingFace, vLLM, Ollama ฯลฯ ได้ทันที
🔐 ความปลอดภัย & ความรับผิดชอบ
- เสริมความสอดคล้องของการให้เหตุผลด้วย RL
- นำ Deliberative Alignment มาใช้
- ไม่สร้างเอาต์พุตความเสี่ยงสูงแม้มีการจงใจนำไปใช้ในทางที่ผิด
ดูเหมือนช่วงนี้คงไม่โดนล้อว่าเป็น ClosedAI ไปได้สักพัก ลองทดสอบสั้น ๆ แล้ว พบว่าภาษาเกาหลีก็ทำได้ดีมากเช่นกัน
ยังไม่มีความคิดเห็น