วิเคราะห์ผลการทดสอบด้วยการโจมตีแบบ prompt injection เดียวกันกับ AI agent framework หลัก 9 ตัว เช่น LangChain, CrewAI, AutoGen และ OpenAI SDK ผลคือไม่มีเฟรมเวิร์กใดที่มีการตรวจสอบอินพุต การบล็อกพฤติกรรมเสี่ยง หรือ audit log ให้มาเป็นค่าเริ่มต้นเลย ในฝั่งเว็บเฟรมเวิร์ก สิ่งอย่าง middleware / request logging ถูกแก้ปัญหาไปแล้วเมื่อ 10 ปีก่อน แต่ฝั่ง AI agent ยังขาดสิ่งเหล่านี้อยู่
ยังไม่มีความคิดเห็น