-
เหตุการณ์ครั้งนี้แสดงให้เห็นว่า generative AI ได้เข้าไปฝังลึกอยู่ในโครงสร้างพื้นฐานทางทหารแล้ว จากกรณีที่ Claude ของ Anthropic ถูกนำไปใช้ผ่านระบบ Maven ของ Palantir สำหรับ การวิเคราะห์ข่าวกรอง การระบุเป้าหมาย และการจำลอง ของกองทัพสหรัฐ
-
จุดเริ่มต้นคือ Project Maven ของกระทรวงกลาโหมสหรัฐในปี 2017 และในปี 2018 Google ก็ถอนตัวหลังเผชิญแรงต้านภายในองค์กร ก่อนที่ Palantir และ Anthropic จะเข้ามาเติมช่องว่างนั้น
-
Anthropic ได้เสนอเงื่อนไข 2 ข้อต่อกระทรวงกลาโหมในช่วงต้นปี 2026 ได้แก่ การห้ามเฝ้าระวังพลเมืองสหรัฐในวงกว้าง และ การห้ามอาวุธอัตโนมัติเต็มรูปแบบ แต่ไม่ได้รับการยอมรับ
-
ในกระบวนการนี้ รัฐบาลทรัมป์พยายามกัน Anthropic ออกไปโดยพฤตินัย และกระทรวงกลาโหมได้ระบุให้บริษัทเป็น ความเสี่ยงต่อห่วงโซ่อุปทาน
-
แต่ในช่วงเวลาใกล้เคียงกันนั้นเอง Claude ก็ยังคงถูกใช้อย่างต่อเนื่องในปฏิบัติการที่เกี่ยวข้องกับอิหร่าน และภายในกระทรวงกลาโหมมีการประเมินว่าการเปลี่ยนไปใช้ระบบอื่นอาจต้องใช้เวลาหลายเดือน
-
นั่นหมายความว่า เมื่อโมเดล AI ถูกผสานเข้ากับระบบทางทหารอย่างลึกซึ้งแล้ว มันจะไม่ใช่เพียงซอฟต์แวร์ธรรมดาอีกต่อไป แต่กลายเป็น โครงสร้างพื้นฐานที่เปลี่ยนได้ยาก
-
ขณะเดียวกัน OpenAI ก็ขยายสัญญากับเพนตากอน และ Google ก็ลบ ข้อความห้ามอาวุธและการเฝ้าระวัง ออกจากหลักการ AI ของตนในปี 2025 ซึ่งสะท้อนให้เห็นถึงการเปลี่ยนแปลงมาตรฐานของทั้งอุตสาหกรรม
-
ประเด็นสำคัญคือ ต่อให้ AI จะไม่ได้เป็นผู้เหนี่ยวไกโดยตรง หากมันเข้าไปมีส่วนลึกใน การแนะนำเป้าหมายและการจัดลำดับความสำคัญ เราจะยังถือว่านั่นคือการควบคุมโดยมนุษย์ได้ถึงแค่ไหน
-
ท้ายที่สุด เหตุการณ์นี้เผยให้เห็นว่า หลักจริยธรรมในยามปกติสามารถสั่นคลอนได้ง่ายในยามสงคราม และอำนาจต่อรองที่แท้จริงก็มาจาก ความลึกของการผสานรวมและต้นทุนในการเปลี่ยนผ่าน มากกว่าตัวหลักการ
-
ดังนั้น คำถามจึงไม่ได้มีเพียงว่า “จะอนุญาตให้อาวุธ AI มีอยู่ได้หรือไม่” แต่กำลังย้ายไปสู่คำถามว่า ใครจะเป็นผู้แทนที่การตัดสินใจของมนุษย์ด้วยคำแนะนำจาก AI และด้วยความเร็วเพียงใด
ยังไม่มีความคิดเห็น