- นักพัฒนา xAI ทำ คีย์ API สำหรับ LLM ภายในหลุด บน GitHub จนเกิดสถานการณ์ที่ใครก็เข้าถึงโมเดลภายในได้เป็นเวลาสองเดือน
- คีย์นี้มีสิทธิ์เข้าถึง LLM มากกว่า 60 รุ่น รวมถึง เวอร์ชันพัฒนาของ Grok และโมเดลที่ฝึกด้วยข้อมูลจาก SpaceX และ Tesla
- GitGuardian แจ้งเตือนตั้งแต่สองเดือนก่อน แต่คีย์ยังคงใช้งานได้อยู่ และถูกลบออกจาก GitHub หลังจากทีมความปลอดภัยเข้ามาตรวจสอบแล้วเท่านั้น
- การจัดการข้อมูลรับรองที่หละหลวม ลักษณะนี้ไม่เพียงเสี่ยงต่อการเปิดเผยข้อมูลพัฒนาภายใน แต่ยังเปิดช่องให้เกิด การโจมตีซัพพลายเชนหรือ prompt injection ได้ด้วย
- พร้อมกันนั้น ยังมีข้อมูลบ่งชี้ว่า องค์กร DOGE กำลังป้อนข้อมูลของรัฐบาลกลางเข้าสู่ AI ทำให้ความกังวลต่อความปลอดภัยของ AI ในเครือ Musk เพิ่มสูงขึ้น
คีย์ API ของ LLM ภายใน xAI หลุดบน GitHub
- นักพัฒนาของ xAI บริษัท AI ของ Elon Musk เผลอเปิดเผย คีย์ API สำหรับเข้าถึง LLM ภายใน บน GitHub
- คีย์ดังกล่าวมีสิทธิ์เข้าถึง LLM ที่ปรับแต่งเฉพาะสำหรับ SpaceX, Tesla และ Twitter/X
ช่องทางที่คีย์รั่วและการเพิกเฉยต่อคำเตือน
- Philippe Caturegli จากบริษัทที่ปรึกษาด้านความปลอดภัย Seralys เป็นผู้ แจ้งการรั่วไหลนี้ต่อสาธารณะบน LinkedIn เป็นคนแรก
- GitGuardian ทราบถึงคีย์นี้ผ่านโพสต์ดังกล่าว และได้ส่งอีเมลเตือนจากการเฝ้าติดตาม GitHub อย่างต่อเนื่อง
- แม้จะเตือนตั้งแต่ 2 มีนาคม แต่จนถึง 30 เมษายน คีย์ก็ยังใช้งานได้อยู่ และที่เก็บโค้ดถูกลบก็ต่อเมื่อทีมความปลอดภัยรับทราบแล้วเท่านั้น
ผลกระทบของคีย์ที่รั่ว
- GitGuardian รายงานว่าคีย์นี้สามารถเข้าถึงได้ทั้ง โมเดลสาธารณะและโมเดลไม่เปิดเผยของ Grok
- ตัวอย่าง:
grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector เป็นต้น
- คีย์นี้สามารถเข้าถึง LLM ที่ยังไม่เปิดเผยและผ่านการ fine-tune แล้วอย่างน้อยกว่า 60 รุ่น
คำเตือนจากผู้เชี่ยวชาญด้านความปลอดภัย
- Carole Winqwist CMO ของ GitGuardian เตือนว่า ผู้โจมตีอาจใช้คีย์นี้เพื่อดำเนินการคุกคาม เช่น
- prompt injection
- การบิดเบือนการทำงานของ LLM
- ชักนำให้เกิดการโจมตีซัพพลายเชน
- เหตุคีย์รั่วครั้งนี้ถูกมองว่าเป็นตัวอย่างที่สะท้อน การกำกับดูแลความปลอดภัยภายในที่ไม่เพียงพอและความล้มเหลวในการจัดการอายุการใช้งานของคีย์ ภายใน xAI
ความเชื่อมโยงกับหน่วยงานรัฐและความกังวลที่ใหญ่กว่า
- แม้จะยังไม่มีหลักฐานว่าคีย์ที่รั่ว เชื่อมตรงกับข้อมูลภาครัฐ แต่ก็มีความเป็นไปได้สูงว่าโมเดลที่เกี่ยวข้องถูกฝึกด้วย ข้อมูลภายในของ SpaceX, Twitter และ Tesla
- ขณะเดียวกัน DOGE (Department of Government Efficiency) ที่ Musk เป็นผู้ผลักดัน ก็กำลังป้อนข้อมูลของรัฐบาลกลางสหรัฐเข้าสู่ AI อยู่แล้ว
- วิเคราะห์ข้อมูลของกระทรวงศึกษาธิการด้วย AI
- แจกจ่ายแชตบอต GSAi ให้เจ้าหน้าที่รัฐบาลกลาง
- มีข้อมูลบ่งชี้ว่าใช้ AI เพื่อติดตามการสนับสนุนรัฐบาล Trump
- สิ่งนี้หมายถึงการเสริมโครงสร้างที่ผู้ดูแลระบบ AI สามารถ ควบคุมข้อมูลอ่อนไหว ได้มากขึ้น และเพิ่มความเสี่ยงจากการรั่วไหล
บทสรุปและคำเตือนด้านความปลอดภัย
- ข้อมูลรับรองภายในที่ถูกเปิดเผยเป็นเวลานาน เป็นตัวอย่างที่สะท้อนช่องโหว่ในการควบคุมสิทธิ์เข้าถึงของนักพัฒนาและการปฏิบัติการด้านความปลอดภัยภายใน
- Caturegli ประเมินว่าเหตุการณ์นี้เป็นคำเตือนที่ชี้ให้เห็นถึง ความจำเป็นของการกำกับดูแลด้านความปลอดภัยเชิงปฏิบัติการที่เข้มงวดยิ่งขึ้น
1 ความคิดเห็น
ความคิดเห็นใน Hacker News
แม้จะผ่านไปเกือบสองเดือนหลังจาก GitGuardian เตือนพนักงาน xAI ว่ามีการเปิดเผย API key แต่คีย์ดังกล่าวก็ยังคงใช้งานได้อยู่
การเปิดเผยข้อมูลของ SpaceX data LLM อาจเป็นสาเหตุสำคัญของการละเมิด ITAR ได้
ไร้ความสามารถอย่างสิ้นเชิง
ก็สมกับที่ Elon บอกว่ารับคนเข้าทำงานโดยยึดตาม "ความสามารถ"
ผมสงสัยมากกว่าว่าโมเดลส่วนตัว "tweet-rejector" ถูกใช้ทำอะไร
สิ่งที่น่าตกใจที่สุดคือเจ้าหน้าที่รัฐบอกกับพนักงานรัฐบาลสหรัฐบางคนว่า DOGE กำลังใช้ AI เพื่อติดตามการสื่อสารของหน่วยงานรัฐบาลกลางอย่างน้อยหนึ่งแห่ง
เห็นได้ชัดว่านักข่าวเข้าใจผิด โดยคิดว่าถ้ามี API key ของ LLM ก็จะสามารถป้อนข้อมูลเข้าไปได้
หมายถึงอดีตนักพัฒนา AI
[ลบแล้ว]
[ลบแล้ว]
[ถูกรายงานแล้ว]