จากความล้มเหลวที่พบเจอจริงระหว่างการสร้างเอเจนต์ที่ใช้ LLM เป็นฐาน
ได้มีการสรุปสถาปัตยกรรมของระบบที่ใช้งานได้จริงอยู่แล้ว พร้อมเหตุผลในการออกแบบไว้เป็นเอกสาร
เอกสารนี้ไม่ใช่เพียงบันทึกไอเดียทั่วไป
แต่เป็นการอธิบายโครงสร้างที่พยายามแก้ปัญหาผ่านการลงมือพัฒนาใช้งานจริง เช่น
ทำไมเอเจนต์ถึงพูดว่า “done” ทั้งที่ในความเป็นจริงไม่มีอะไรเกิดขึ้น
และทำไมผลลัพธ์ของการรันจึงต้องตรวจสอบด้วยสถานะของโลกภายนอก แทนที่จะอาศัยการให้เหตุผลของโมเดล
แกนสำคัญคือ:
- เอเจนต์จะไม่เปลี่ยนสถานะโดยตรง แต่เสนอเพียง intent เท่านั้น
- การเปลี่ยนผ่านของสถานะจะถูกตรวจสอบด้วยการคำนวณแบบกำหนดแน่นอน
- การตัดสินว่า “เสร็จสมบูรณ์” หรือไม่นั้น จะพิจารณาจากสถานะของโลกเสมอ
ตอนนี้มีเดโมที่ทำงานด้วยโครงสร้างนี้อยู่แล้ว (TaskFlow)
และเอกสารที่เผยแพร่ออกมาในปัจจุบัน
คือการอธิบายโมเดล world / state / execution ที่ทำให้ระบบนั้นเป็นไปได้อย่างชัดเจน
แม้จะยังไม่ถึงเวอร์ชัน 1.0
แต่ก็เป็นเอกสารที่สรุปอยู่บนระบบซึ่งสามารถรัน ตรวจสอบ และดีบักได้จริง
Docs: https://docs.manifesto-ai.dev
Demo (working, early): https://taskflow.manifesto-ai.dev
2 ความคิดเห็น
เหมือนจะเป็นบทความอธิบายของ Show GN: 자연어 명령을 Intent → Effect → Snapshot으로 실행하는 AI Task 데모 ที่โพสต์ไว้ใน ShowGN นะครับ
นี่เป็นบทความที่อธิบายสถาปัตยกรรมว่าตัวโปรดักต์ถูกประกอบขึ้นมาอย่างไรในทางปฏิบัติ
พอทำให้เสถียรในเวอร์ชัน 1.0 แล้วและได้จัดระเบียบ docs ไปด้วย เลยลองเรียบเรียงบทความนี้ดูครับ