ความปลอดภัยไซเบอร์ตอนนี้ทำงานเหมือน Proof of Work
(dbreunig.com)- LLM ‘Mythos’ ของ Anthropic ทำงานได้เร็วและแม่นยำกว่ามนุษย์ในการจำลองการโจมตีเครือข่ายที่ซับซ้อน และเปิดให้เข้าถึงเฉพาะนักพัฒนาหลักจำนวนจำกัด
- ในการทดสอบของ AI Security Institute นั้น Mythos จำลองการโจมตีเครือข่ายองค์กร 32 ขั้นตอน ได้สำเร็จสมบูรณ์ 3 ครั้งจาก 10 ครั้ง และ ยิ่งเพิ่มงบประมาณโทเค็น ประสิทธิภาพก็ยิ่งดีขึ้น
- ผลลัพธ์นี้ชี้ให้เห็นว่า ความปลอดภัยกำลังเปลี่ยนเป็น โครงสร้างที่ต้องทุ่มโทเค็นมากกว่าฝั่งผู้โจมตีจึงจะป้องกันได้ หรือก็คือ การแข่งขันแบบ Proof of Work
- หลังเหตุโจมตีซัพพลายเชนของ LiteLLM·Axios ความพยายามในการแทนที่การพึ่งพาโอเพนซอร์สด้วย LLM หรือ เพิ่มความปลอดภัยด้วยการทุ่มโทเค็น กำลังแพร่หลาย
- ปัจจุบันปัจจัยชี้ขาดของความปลอดภัยไม่ใช่ความคิดสร้างสรรค์ทางเทคนิค แต่เป็น ปริมาณทรัพยากรที่投入 และกำลังนำไปสู่แนวโน้มการเพิ่มขั้นตอน ‘hardening’ ในกระบวนการพัฒนา
โครงสร้างที่ความปลอดภัยทำงานเหมือน ‘Proof of Work’
- LLM ‘Mythos’ ของ Anthropic แสดงประสิทธิภาพโดดเด่นในงานด้านความปลอดภัยคอมพิวเตอร์ จึงเปิดให้เข้าถึงเฉพาะผู้สร้างซอฟต์แวร์หลักโดยยังไม่เปิดสู่สาธารณะ
- Mythos สามารถจำลองการโจมตีเครือข่ายที่ซับซ้อนได้เร็วกว่ามนุษย์อย่างมาก
- ในการประเมินของ AI Security Institute (AISI) ก็พิสูจน์ความสามารถในการ ดำเนินการโจมตีไซเบอร์ ที่สูงกว่ารุ่นก่อนหน้าอีกระดับ
- ในการจำลองการโจมตีเครือข่ายองค์กร 32 ขั้นตอนชื่อ ‘The Last Ones’ Mythos ทำสำเร็จครบถ้วน 3 ครั้งจาก 10 ครั้ง
- AISI ใช้ 100 ล้านโทเค็น (ราว 12,500 ดอลลาร์) ต่อความพยายามหนึ่งครั้ง
- ในบรรดาโมเดลที่ทดสอบ มีเพียง Mythos เท่านั้นที่โจมตีได้ครบทั้งหมด และ ยิ่งเพิ่มงบประมาณโทเค็น ประสิทธิภาพก็ยังดีขึ้นต่อเนื่อง
- ผลลัพธ์นี้ทำให้เศรษฐศาสตร์ของความปลอดภัยสรุปได้เป็นสมการง่าย ๆ ว่า “หากจะป้องกันได้ ต้องใช้โทเค็นมากกว่าที่ผู้โจมตีใช้”
- การเสริมความปลอดภัยถูกกำหนดโดย ปริมาณทรัพยากรที่投入 มากกว่าความคิดสร้างสรรค์
- นี่เป็นโครงสร้างที่คล้ายกับกลไก Proof of Work ของคริปโตเคอร์เรนซี ซึ่งฝ่ายที่ทุ่มทรัพยากรการคำนวณมากกว่าจะเป็นฝ่ายชนะ
นัยสำคัญของเศรษฐศาสตร์ความปลอดภัยแบบใหม่
-
ความสำคัญของซอฟต์แวร์โอเพนซอร์สที่มากขึ้น
- หลังการโจมตีซัพพลายเชนของ LiteLLM และ Axios เมื่อไม่นานมานี้ บางฝ่ายเริ่มเสนอให้สร้างโค้ดส่วนพึ่งพาใหม่ด้วย AI agent
- Andrej Karpathy กล่าวไว้ว่า “ควรประเมิน dependencies ใหม่ และฟังก์ชันที่เรียบง่ายควรสร้างตรงด้วย LLM จะดีกว่า”
- หากความปลอดภัยแปรผันตามปริมาณโทเค็นที่投入 ก็เป็นไปได้ว่า ยิ่งบริษัททุ่มโทเค็นเพื่อเสริมความปลอดภัยให้ไลบรารีโอเพนซอร์ส ก็ยิ่งปลอดภัยขึ้น
- อย่างไรก็ดี OSS ที่ถูกใช้อย่างแพร่หลายมีมูลค่าในการโจมตีสูง จึงทำให้ ฝั่งผู้โจมตีก็มีแรงจูงใจที่จะทุ่มทรัพยากรมากขึ้นเช่นกัน
-
การเพิ่มขั้นตอน ‘Hardening’ ในกระบวนการพัฒนา
- ปัจจุบันนักพัฒนามักทำงานตามกระบวนการ 2 ขั้นคือ พัฒนา → รีวิวโค้ด โดยใช้คนละโมเดลในแต่ละขั้น
- Anthropic มีบริการเฉพาะสำหรับรีวิวโค้ด (Code Review) โดยมีค่าใช้จ่ายราว 15–20 ดอลลาร์ต่อการรีวิวหนึ่งครั้ง
- ในอนาคต วงจร 3 ขั้น พัฒนา → รีวิว → hardening อาจกลายเป็นเรื่องปกติ
- พัฒนา: สร้างฟังก์ชันและวนปรับปรุงจากฟีดแบ็กผู้ใช้
- รีวิว: จัดทำเอกสาร รีแฟกเตอร์ และยกระดับคุณภาพ
- Hardening: ดำเนินการ ค้นหาช่องโหว่อัตโนมัติ ภายในขอบเขตงบประมาณที่มี
- ขั้นแรกถูกจำกัดด้วยเวลาของมนุษย์ ขณะที่ขั้นสุดท้ายมี ต้นทุน เป็นปัจจัยจำกัด
โครงสร้างต้นทุนและขีดจำกัดของความปลอดภัย
- การเขียนโค้ดยังคงมีต้นทุน ต่ำ แต่หากต้องการให้ปลอดภัย ก็จำเป็นต้อง ซื้อโทเค็นให้มากกว่าฝั่งผู้โจมตี
- แม้ประสิทธิภาพด้านการอนุมานของโมเดลจะดีขึ้น แต่ ต้นทุนการเสริมความปลอดภัยถูกกำหนดโดยมูลค่าของการโจมตี จึงยากที่จะลดต้นทุนได้อย่างสมบูรณ์
- ผลลัพธ์คือ ความปลอดภัยกำลังเปลี่ยนจากเรื่องของความคิดสร้างสรรค์ทางเทคนิค ไปเป็น การแข่งขันด้านทรัพยากรที่ขับเคลื่อนโดยตลาด
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
การเข้าถึงโค้ดเบสคือหัวใจสำคัญ ตอนนี้การ สแกนความปลอดภัยด้วย LLM แทบจะเป็นแค่สคริปต์ bash ง่ายๆ ที่ไล่วนทุกไฟล์แล้วโยนพรอมป์ต์ว่า “ช่วยหาช่องโหว่ให้หน่อย”
แต่ถ้าฝั่งป้องกันควบคุมซอร์สทั้งหมดได้ ก็ทำงานได้มีประสิทธิภาพกว่ามาก เช่น สแกนเฉพาะไฟล์ที่เปลี่ยนในระดับ PR หรือทุ่มโทเคนมากขึ้นให้โค้ดที่เกี่ยวกับความปลอดภัย ผู้โจมตีต้องสแกนใหม่ทุกครั้ง แต่ฝ่ายป้องกันสแกนครั้งเดียวก็หาโอกาสเกิดช่องโหว่ทั้งหมดได้ล่วงหน้า
สุดท้ายแล้วจึงมี ความไม่สมมาตรของต้นทุน อยู่จริง และฝั่งป้องกันได้เปรียบในด้านประสิทธิภาพ ผู้โจมตีต้องทำ exploit chain หลายขั้นให้สำเร็จ แต่ฝ่ายป้องกันแค่บล็อกจุดอ่อนที่สุดจุดเดียวในนั้นก็พอ
AI Security Institute (AISI) ที่บทความพูดถึงน่าสนใจ เลยลองไปดูเพิ่มแล้วพบว่าเป็นองค์กรที่มีคนจาก DeepMind หรือ OpenAI เข้ามามีส่วนร่วมเป็นหลัก แทบไม่มีคนจากวงการความปลอดภัยเลย จึงทำให้ข้อสรุปแบบ “ถ้าอยาก harden ระบบก็ต้องใช้โทเคนมากขึ้น” ฟังดูเป็น ตรรกะที่ยึดมุมมองอุตสาหกรรม AI อยู่พอสมควร และก็สงสัยว่าทำไมทางเลือกอย่าง formal verification ถึงไม่ถูกพูดถึง นึกภาพได้เลยว่า NVIDIA อาจหยิบตรรกะแบบนี้ไปใช้ขาย GPU ได้
คำพูดของ Tony Hoare ที่ว่า “การออกแบบซอฟต์แวร์มีอยู่สองแนวทาง คือทำให้ง่ายจนไม่มีข้อบกพร่อง หรือทำให้ซับซ้อนจนมองไม่เห็นข้อบกพร่อง” เป็นคำคมที่โดดเด่นมาก
ความปลอดภัยเป็น เกมของการดูว่าคู่แข่งยอมจ่ายมากแค่ไหน มาตลอด การมี LLM ไม่ได้เปลี่ยนหลักการนั้น สิ่งที่ Karpathy พูดเรื่องแนวคิด “คัดลอกแทนพึ่งพา dependency” ก็มีอยู่ในสุภาษิตของภาษา Go มานานแล้ว เช่นเดียวกับหลักการที่ว่า “ความปลอดภัยไม่ได้มาจากการซ่อน” ซึ่งก็เป็นข้อเท็จจริงเก่าแก่
โดยรวมเห็นด้วยกับบทความ ข้อความว่า “เราไม่ได้ให้คะแนนความฉลาด” ฟังดูอันตรายอยู่บ้าง แก่นแท้ของ ไซเบอร์ซีเคียวริตีคือระบบของมนุษย์ อยู่ดี การใช้เวลา GPU จำนวนมากเป็นเรื่องจำเป็น แต่ท้ายที่สุดแล้ว วัฒนธรรมและวินัยด้านความปลอดภัย ขององค์กรต่างหากที่ชี้ขาดแพ้ชนะ เราจำเป็นต้องมีวินัยระดับเดียวกับที่อุตสาหกรรมนิวเคลียร์หรือการบินพัฒนาขึ้นหลังเกิดอุบัติเหตุ
ในบริบทนี้ บทความนี้ เมื่อปีก่อนอธิบายสถานการณ์ตอนนี้ได้แทบเหมือนทำนายไว้ล่วงหน้า
สำหรับข้ออ้างที่ว่า “ถ้าอยาก harden ระบบต้องใช้โทเคนมากกว่าผู้โจมตี” ผมเคยเขียนสคริปต์เองเพื่อทำ Ticketmaster API automation มาก่อน พวกเขาเสริมการป้องกันด้วย PerimeterX แต่ผมก็ bypass ได้ภายใน 3 วัน ไม่นานมานี้ผมยังทำวิธี bypass Cloudflare Turnstile ของ ChatGPT ในลักษณะคล้ายกันได้ด้วย
นี่เป็นตัวอย่างที่แสดงให้เห็นว่าผลิตภัณฑ์ความปลอดภัยที่สร้างด้วยเงินหลายสิบล้านดอลลาร์ แท้จริงแล้ว ไร้ประโยชน์สิ้นดี
โพสต์ HN ที่เกี่ยวข้อง
อยากรู้ว่าเหตุการณ์ด้านความปลอดภัยที่ LLM ค้นพบได้นั้นเป็นช่องโหว่ใหม่จริงๆ หรือแค่เป็นส่วนต่อยอดจากองค์ความรู้ด้านความปลอดภัยเดิม ถ้าเป็นอย่างหลัง ก็ชวนสงสัยว่าทำไมเราถึงค้นหาอย่างเป็นระบบด้วยตัวเองไม่ได้
เหตุผลที่งานวิจัยนี้ดูเหมือน Proof of Work ก็เพราะ AISI ระบุว่า “ยิ่งใช้โทเคนมาก ผลลัพธ์ก็ยังเพิ่มขึ้นต่อเนื่อง” กล่าวคือสมมุติฐานคืออัตราความสำเร็จของการโจมตีแปรผันตามปริมาณโทเคนที่ใช้ แต่การทดลองเป็นสถานการณ์เจาะเครือข่าย 32 ขั้น และมีเพียง Mythos โมเดลเดียวที่ทำสำเร็จ สำหรับไลบรารีโค้ดที่เรียบง่ายกว่า จุดที่ผลตอบแทนลดลง อาจมาถึงเร็วกว่านี้มาก
โปรเจกต์โอเพนซอร์สน่าจะทำให้ทั้งฝ่ายป้องกันและผู้โจมตีต้องใช้โทเคนมากขึ้น จึงอาจชนเพดานนี้ได้เร็วกว่า
สุดท้ายคำถามคือ — การปกป้องโค้ดเบสที่มนุษย์เขียนมีต้นทุนถูกกว่า หรือการปกป้อง โค้ดที่สร้างโดยฝูงเอเจนต์ มีต้นทุนถูกกว่ากัน
การโยนโมเดลเข้าใส่ทั้งโค้ดเบสแบบสะเปะสะปะเหมือนตอนนี้ไม่มีประสิทธิภาพ จากที่ผมทดลองมา ถ้าปรับโมเดลให้สำรวจ source-to-sink trace อย่างมีโครงสร้าง ต้นทุนจะลดลงอย่างมาก
ตอนนี้เราเข้าสู่ยุคที่ระบบสามารถ มองภาพบริบทของโค้ดทั้งก้อนและชี้รอยร้าวได้อย่างแม่นยำ แล้ว และนี่จะเป็นจุดเปลี่ยนสำคัญในการยกระดับคุณภาพซอฟต์แวร์