• Purple Llama คือ โปรเจ็กต์ร่ม (umbrella project) ในระบบนิเวศโอเพนซอร์สด้านความน่าเชื่อถือและความปลอดภัยของ AI ที่ Meta เป็นผู้นำ โดยมีเป้าหมายเพื่อรวบรวม เครื่องมือด้านความปลอดภัย คู่มือ เครื่องมือประเมิน (Eval) และเบนช์มาร์ก ที่จำเป็นต่อการพัฒนา generative AI (LLM) ไว้ในที่เดียว และพัฒนาร่วมกับชุมชน
  • LlamaFirewall เป็นองค์ประกอบหลักของโปรเจ็กต์ Purple Llama โดยเป็น เฟรมเวิร์กที่ตรวจจับและบล็อกภัยคุกคามด้านความปลอดภัยหลากหลายรูปแบบที่อาจเกิดขึ้นใน generative AI (โดยเฉพาะแชตบอต/เอเจนต์ที่ใช้ LLM) แบบเรียลไทม์ ด้วยโครงสร้างสแกนเนอร์หลายชั้น เช่น prompt injection, misalignment, ช่องโหว่ของโค้ด เป็นต้น
  • ทำงานร่วมกับเครื่องมือด้านความปลอดภัย/ความน่าเชื่อถืออื่น ๆ ของ Purple Llama เช่น Llama Guard, Prompt Guard, Code Shield, CyberSec Eval เพื่อสร้าง ชั้นความปลอดภัย AI แบบครบวงจรในระดับระบบ
    • Llama Guard: โมเดลบนพื้นฐาน Llama 3 สำหรับตรวจจับ/บล็อกเนื้อหาที่เป็นอันตรายในอินพุตและเอาต์พุต สามารถใส่ไว้ในนโยบายของ LlamaFirewall เพื่อให้ทำงานอัตโนมัติในทุกขั้นตอนของอินพุต/เอาต์พุต
    • Prompt Guard: เชี่ยวชาญด้านการตรวจจับการโจมตีแบบ prompt injection/การ jailbreak โดยเชื่อมต่อภายใน LlamaFirewall ผ่าน PromptGuardScanner
    • Code Shield: ตรวจจับช่องโหว่และโค้ดอันตรายในโค้ดที่ LLM สร้างขึ้นแบบเรียลไทม์ โดยเชื่อมต่อภายใน LlamaFirewall ผ่าน CodeShieldScanner
    • CyberSec Eval: เครื่องมือเบนช์มาร์กด้านไซเบอร์ซีเคียวริตี้สำหรับ LLM ของ Purple Llama ใช้ทดสอบความทนทานด้านความปลอดภัยและช่องโหว่จริงของโมเดลที่อิงกับ LlamaFirewall
  • จุดเด่นคือ latency ต่ำ/throughput สูง, ใช้งานได้แบบเรียลไทม์, เป็นโอเพนซอร์สที่โปร่งใส, และขยายต่อได้อย่างทรงพลัง
  • ช่วยให้ทีมความปลอดภัยและนักพัฒนา AI สามารถนำ Guardrail ที่ปลอดภัยสำหรับแชตบอต เอเจนต์ และ AI แบบหลายขั้นตอนที่ใช้ LLM ไปใช้งานได้อย่างรวดเร็ว

ยังไม่มีความคิดเห็น

ยังไม่มีความคิดเห็น