10 คะแนน โดย xguru 2026-01-24 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • เฟรมเวิร์กสำหรับรัน AI agent และ workflow ในสภาพแวดล้อมโปรดักชันได้อย่างเสถียร
  • เริ่มพัฒนาตั้งแต่เดือนตุลาคม 2024 และเติบโตต่อเนื่องราว 15 เดือน โดยมีหลายร้อยทีมใช้งานเวอร์ชันเบต้าในโปรดักชัน
  • มีบริษัทจริงอย่าง Replit, PayPal, Sanity ใช้งานอยู่
  • ผ่านการใช้งานอย่างเสถียรในสภาพแวดล้อมโปรดักชันขนาดใหญ่มาหลายเดือน จึงประเมินว่าพร้อมเปิดตัว 1.0 แล้ว
    • ไปถึงระดับความพร้อมที่สามารถตรึง API ได้
  • โปรเจ็กต์ใหม่สามารถ scaffold ด้วยค่าเริ่มต้นของ 1.0 ผ่าน CLI ได้ และโปรเจ็กต์เดิมรองรับการย้ายอัตโนมัติผ่าน codemod

การเปลี่ยนแปลงใน 1.0

  • เพื่อให้ใช้งานในโปรดักชันได้ มุ่งเน้น การเปลี่ยนแปลงเชิงสถาปัตยกรรมเพื่อลดความซับซ้อนของการดีพลอยและการปฏิบัติการ
  • Server Adapter:
    • เปิดเผย agent, workflow, tool และเซิร์ฟเวอร์ MCP เป็น HTTP endpoint โดยอัตโนมัติ
    • ผสาน Mastra เข้ากับเซิร์ฟเวอร์ Express, Hono, Fastify, Koa ที่มีอยู่ได้โดยตรง
    • ลดภาระในการต้องรันโปรเซสเซิร์ฟเวอร์เฉพาะของ Mastra แยกต่างหาก
  • Composite Storage:
    • เปลี่ยนจากโครงสร้างสตอเรจแบบเดี่ยวเป็น การจัดสตอเรจตามโดเมน
    • แยกข้อมูลหน่วยความจำ, workflow, คะแนน และ observability ไปใช้แบ็กเอนด์ต่างกันได้
    • รองรับการเชื่อมต่อแบบเลือกใช้กับโครงสร้างพื้นฐานเดิม เช่น Postgres, LibSQL, ClickHouse
    • ทำให้ปัญหาเรื่องต้นทุน, latency และ scalability ถูกจำกัดอยู่ในระดับโดเมนได้
  • รองรับ AI SDK v6
    • ใช้งาน LanguageModelV3 และ ToolLoopAgent ได้
    • คงความเข้ากันได้ย้อนหลังอย่างสมบูรณ์ กับโมเดล V1·V2 เดิม
    • ปรับรูปแบบภายในให้เป็นมาตรฐานโดยยังคงข้อมูล reasoning token และ cache input token ไว้