OpenAI เปิดตัวโมเดลซีรีส์ GPT-OSS (gpt-oss-120b / gpt-oss-20b) ภายใต้ไลเซนส์ Apache 2.0 อย่างเป็นทางการ นี่คือโมเดล open-weight ที่เปิดตัวครั้งแรกในรอบ 6 ปีนับจาก GPT-2 และมีศักยภาพที่จะเปลี่ยนเกมของตลาดได้ทั้งด้านประสิทธิภาพและความคุ้มค่า

🧠 คุณสมบัติหลัก

  • โมเดล 20B: โครงสร้าง Mixture of Experts (MoE)
     • เปิดใช้งาน 4 จาก 128 experts → รักษาประสิทธิภาพไว้พร้อมลดต้นทุนการอนุมาน
     • รองรับ FlashAttention, โทเค็น 128k และมี YaRN
  • โมเดล 20B: รันได้แม้ในสภาพแวดล้อม GPU 16GB (รวมถึง Apple Silicon)

📊 ผลการทดสอบ benchmark หลัก (อ้างอิง GPT-OSS-120B)

  • MMLU: 90.0% (ใกล้เคียงกับ o4-mini)
  • คณิตศาสตร์ AIME: 97.9% (อยู่ในระดับแถวหน้าทั้งคณิตศาสตร์และการใช้เครื่องมือ)
  • Codeforces Elo: 2622 (ความสามารถด้านโค้ดก็ติดระดับบน)
  • HealthBench: ทำผลงานได้ดีกว่า GPT-4o
  • MMMLU (14 ภาษา): 81.3% → แข็งแกร่งด้านการให้เหตุผลหลายภาษาเช่นกัน

💡 การใช้งานจริง & ecosystem

  • รันโมเดล 120B ได้บน GPU H100 80GB เพียงตัวเดียว
  • รันโมเดล 20B แบบเรียลไทม์ได้แม้ในสภาพแวดล้อม 16GB
  • ใช้งานร่วมกับ HuggingFace, vLLM, Ollama ฯลฯ ได้ทันที

🔐 ความปลอดภัย & ความรับผิดชอบ

  • เสริมความสอดคล้องของการให้เหตุผลด้วย RL
  • นำ Deliberative Alignment มาใช้
  • ไม่สร้างเอาต์พุตความเสี่ยงสูงแม้มีการจงใจนำไปใช้ในทางที่ผิด

ดูเหมือนช่วงนี้คงไม่โดนล้อว่าเป็น ClosedAI ไปได้สักพัก ลองทดสอบสั้น ๆ แล้ว พบว่าภาษาเกาหลีก็ทำได้ดีมากเช่นกัน

https://huggingface.co/openai/gpt-oss-120b

ยังไม่มีความคิดเห็น

ยังไม่มีความคิดเห็น