- Purple Llama คือ โปรเจ็กต์ร่ม (umbrella project) ในระบบนิเวศโอเพนซอร์สด้านความน่าเชื่อถือและความปลอดภัยของ AI ที่ Meta เป็นผู้นำ โดยมีเป้าหมายเพื่อรวบรวม เครื่องมือด้านความปลอดภัย คู่มือ เครื่องมือประเมิน (Eval) และเบนช์มาร์ก ที่จำเป็นต่อการพัฒนา generative AI (LLM) ไว้ในที่เดียว และพัฒนาร่วมกับชุมชน
- LlamaFirewall เป็นองค์ประกอบหลักของโปรเจ็กต์ Purple Llama โดยเป็น เฟรมเวิร์กที่ตรวจจับและบล็อกภัยคุกคามด้านความปลอดภัยหลากหลายรูปแบบที่อาจเกิดขึ้นใน generative AI (โดยเฉพาะแชตบอต/เอเจนต์ที่ใช้ LLM) แบบเรียลไทม์ ด้วยโครงสร้างสแกนเนอร์หลายชั้น เช่น prompt injection, misalignment, ช่องโหว่ของโค้ด เป็นต้น
- ทำงานร่วมกับเครื่องมือด้านความปลอดภัย/ความน่าเชื่อถืออื่น ๆ ของ Purple Llama เช่น Llama Guard, Prompt Guard, Code Shield, CyberSec Eval เพื่อสร้าง ชั้นความปลอดภัย AI แบบครบวงจรในระดับระบบ
- Llama Guard: โมเดลบนพื้นฐาน Llama 3 สำหรับตรวจจับ/บล็อกเนื้อหาที่เป็นอันตรายในอินพุตและเอาต์พุต สามารถใส่ไว้ในนโยบายของ LlamaFirewall เพื่อให้ทำงานอัตโนมัติในทุกขั้นตอนของอินพุต/เอาต์พุต
- Prompt Guard: เชี่ยวชาญด้านการตรวจจับการโจมตีแบบ prompt injection/การ jailbreak โดยเชื่อมต่อภายใน LlamaFirewall ผ่าน PromptGuardScanner
- Code Shield: ตรวจจับช่องโหว่และโค้ดอันตรายในโค้ดที่ LLM สร้างขึ้นแบบเรียลไทม์ โดยเชื่อมต่อภายใน LlamaFirewall ผ่าน CodeShieldScanner
- CyberSec Eval: เครื่องมือเบนช์มาร์กด้านไซเบอร์ซีเคียวริตี้สำหรับ LLM ของ Purple Llama ใช้ทดสอบความทนทานด้านความปลอดภัยและช่องโหว่จริงของโมเดลที่อิงกับ LlamaFirewall
- จุดเด่นคือ latency ต่ำ/throughput สูง, ใช้งานได้แบบเรียลไทม์, เป็นโอเพนซอร์สที่โปร่งใส, และขยายต่อได้อย่างทรงพลัง
- ช่วยให้ทีมความปลอดภัยและนักพัฒนา AI สามารถนำ Guardrail ที่ปลอดภัยสำหรับแชตบอต เอเจนต์ และ AI แบบหลายขั้นตอนที่ใช้ LLM ไปใช้งานได้อย่างรวดเร็ว
ยังไม่มีความคิดเห็น