• เหตุการณ์ครั้งนี้แสดงให้เห็นว่า generative AI ได้เข้าไปฝังลึกอยู่ในโครงสร้างพื้นฐานทางทหารแล้ว จากกรณีที่ Claude ของ Anthropic ถูกนำไปใช้ผ่านระบบ Maven ของ Palantir สำหรับ การวิเคราะห์ข่าวกรอง การระบุเป้าหมาย และการจำลอง ของกองทัพสหรัฐ

  • จุดเริ่มต้นคือ Project Maven ของกระทรวงกลาโหมสหรัฐในปี 2017 และในปี 2018 Google ก็ถอนตัวหลังเผชิญแรงต้านภายในองค์กร ก่อนที่ Palantir และ Anthropic จะเข้ามาเติมช่องว่างนั้น

  • Anthropic ได้เสนอเงื่อนไข 2 ข้อต่อกระทรวงกลาโหมในช่วงต้นปี 2026 ได้แก่ การห้ามเฝ้าระวังพลเมืองสหรัฐในวงกว้าง และ การห้ามอาวุธอัตโนมัติเต็มรูปแบบ แต่ไม่ได้รับการยอมรับ

  • ในกระบวนการนี้ รัฐบาลทรัมป์พยายามกัน Anthropic ออกไปโดยพฤตินัย และกระทรวงกลาโหมได้ระบุให้บริษัทเป็น ความเสี่ยงต่อห่วงโซ่อุปทาน

  • แต่ในช่วงเวลาใกล้เคียงกันนั้นเอง Claude ก็ยังคงถูกใช้อย่างต่อเนื่องในปฏิบัติการที่เกี่ยวข้องกับอิหร่าน และภายในกระทรวงกลาโหมมีการประเมินว่าการเปลี่ยนไปใช้ระบบอื่นอาจต้องใช้เวลาหลายเดือน

  • นั่นหมายความว่า เมื่อโมเดล AI ถูกผสานเข้ากับระบบทางทหารอย่างลึกซึ้งแล้ว มันจะไม่ใช่เพียงซอฟต์แวร์ธรรมดาอีกต่อไป แต่กลายเป็น โครงสร้างพื้นฐานที่เปลี่ยนได้ยาก

  • ขณะเดียวกัน OpenAI ก็ขยายสัญญากับเพนตากอน และ Google ก็ลบ ข้อความห้ามอาวุธและการเฝ้าระวัง ออกจากหลักการ AI ของตนในปี 2025 ซึ่งสะท้อนให้เห็นถึงการเปลี่ยนแปลงมาตรฐานของทั้งอุตสาหกรรม

  • ประเด็นสำคัญคือ ต่อให้ AI จะไม่ได้เป็นผู้เหนี่ยวไกโดยตรง หากมันเข้าไปมีส่วนลึกใน การแนะนำเป้าหมายและการจัดลำดับความสำคัญ เราจะยังถือว่านั่นคือการควบคุมโดยมนุษย์ได้ถึงแค่ไหน

  • ท้ายที่สุด เหตุการณ์นี้เผยให้เห็นว่า หลักจริยธรรมในยามปกติสามารถสั่นคลอนได้ง่ายในยามสงคราม และอำนาจต่อรองที่แท้จริงก็มาจาก ความลึกของการผสานรวมและต้นทุนในการเปลี่ยนผ่าน มากกว่าตัวหลักการ

  • ดังนั้น คำถามจึงไม่ได้มีเพียงว่า “จะอนุญาตให้อาวุธ AI มีอยู่ได้หรือไม่” แต่กำลังย้ายไปสู่คำถามว่า ใครจะเป็นผู้แทนที่การตัดสินใจของมนุษย์ด้วยคำแนะนำจาก AI และด้วยความเร็วเพียงใด

ยังไม่มีความคิดเห็น

ยังไม่มีความคิดเห็น