- กระทรวงสงครามสหรัฐฯ ได้ระบุว่า Anthropic เป็น ปัจจัยเสี่ยงด้านห่วงโซ่อุปทานต่อความมั่นคงแห่งชาติ และบริษัทมองว่ามาตรการนี้ ไม่มีความชอบธรรมทางกฎหมาย จึงกำลังเตรียมดำเนินการทางกฎหมาย
- จดหมายจากกระทรวงสงครามระบุว่า ขอบเขตการจำกัดการใช้โมเดล Claude แคบมาก และใช้กับการใช้งานของลูกค้าที่เกี่ยวข้องโดยตรงกับสัญญาของกระทรวงสงครามเท่านั้น
- กฎหมายที่เกี่ยวข้อง (10 USC 3252) มีอยู่เพื่อ ปกป้องรัฐบาล และรัฐมนตรีว่าการกระทรวงสงคราม ต้องใช้มาตรการที่จำกัดที่สุดเท่าที่จำเป็นเท่านั้น
- Anthropic กำลังหารือกับกระทรวงสงครามเกี่ยวกับ การสานต่อความร่วมมือและแนวทางการเปลี่ยนผ่านอย่างราบรื่น พร้อมทั้งยังคงหลักการยกเว้นเกี่ยวกับ อาวุธอัตโนมัติและการสอดส่องภายในประเทศในวงกว้าง
- บริษัทจะ สนับสนุนต่อไปเพื่อไม่ให้กองทัพสหรัฐฯ ที่อยู่ในสงครามและผู้เชี่ยวชาญด้านความมั่นคงสูญเสียเครื่องมือที่จำเป็น และย้ำถึงเป้าหมายร่วมกันในการใช้ AI เพื่อความมั่นคงแห่งชาติ
การถูกกำหนดให้เป็นความเสี่ยงด้านห่วงโซ่อุปทานโดยกระทรวงสงคราม
- กระทรวงสงครามได้แจ้งว่าได้จัดประเภท Anthropic เป็น ความเสี่ยงด้านห่วงโซ่อุปทานต่อความมั่นคงแห่งชาติของสหรัฐฯ
- Anthropic เห็นว่ามาตรการนี้ ไม่มีความชอบธรรมทางกฎหมาย และเตรียมยื่นคัดค้านต่อศาล
- ตามถ้อยคำในจดหมายของกระทรวงสงคราม การกำหนดนี้ใช้เฉพาะกับ ลูกค้าที่ใช้โมเดล Claude เป็นส่วนโดยตรงของสัญญากับกระทรวงสงคราม เท่านั้น
- แม้จะมีสัญญากับกระทรวงสงคราม ก็ไม่มีข้อจำกัดต่อการใช้ Claude ที่ไม่เกี่ยวข้องกับสัญญานั้น หรือการทำธุรกิจกับ Anthropic
ฐานทางกฎหมายและขอบเขตการบังคับใช้
- มาตรการของกระทรวงสงครามอ้างอิง มาตรา 10 USC 3252 ซึ่งกฎหมายนี้กำหนดให้ ใช้มาตรการจำกัดเท่าที่จำเป็นขั้นต่ำเพื่อปกป้องห่วงโซ่อุปทาน
- จุดประสงค์ของกฎหมายคือ เพื่อปกป้องรัฐบาล ไม่ใช่เพื่อลงโทษผู้จัดหา
- ดังนั้นขอบเขตของการกำหนดนี้จึง จำกัดอย่างมาก และไม่มีผลกระทบต่อลูกค้าที่ไม่ใช่ผู้รับจ้างของกระทรวงสงคราม
ความร่วมมือกับกระทรวงสงครามและหลักการยกเว้น
- ในช่วงไม่กี่วันที่ผ่านมา Anthropic ได้หารือกับกระทรวงสงครามเกี่ยวกับ แนวทางสานต่อความร่วมมือและขั้นตอนการเปลี่ยนผ่าน
- บริษัทได้สนับสนุนกระทรวงสงครามในหลายด้าน เช่น การวิเคราะห์ข่าวกรอง การสร้างแบบจำลองและการจำลองสถานการณ์ การวางแผนปฏิบัติการ และปฏิบัติการไซเบอร์
- Anthropic ยังคงรักษาหลักการยกเว้น 2 ประการเกี่ยวกับ อาวุธอัตโนมัติและการสอดส่องภายในประเทศในวงกว้าง
- บริษัทระบุอย่างชัดเจนว่า บริษัทเอกชนไม่ควรมีส่วนร่วมในการตัดสินใจด้านปฏิบัติการทางทหาร
เหตุการณ์เอกสารภายในรั่วไหล
- บริษัทได้ขอโทษต่อกรณี โพสต์ภายในบริษัท ที่รั่วไหลสู่สื่อเมื่อวันก่อน
- โพสต์ดังกล่าวถูกเขียนขึ้นทันทีหลังจาก โพสต์บน Truth Social ของประธานาธิบดี, โพสต์บน X ของรัฐมนตรีว่าการกระทรวงสงคราม, และ การประกาศสัญญาระหว่าง OpenAI กับกระทรวงกลาโหม
- Anthropic ระบุว่าไม่ได้เป็นผู้ปล่อยโพสต์นี้รั่วไหล และ ไม่ได้มีเจตนาจะทำให้สถานการณ์เลวร้ายลง
- โพสต์ดังกล่าวเขียนขึ้นเมื่อ 6 วันก่อน และเป็น การประเมินที่ล้าสมัยซึ่งไม่สะท้อนสถานการณ์ปัจจุบัน
การสนับสนุนในอนาคตและเป้าหมายร่วมกัน
- Anthropic มีแผนจะ สนับสนุนต่อไปเพื่อให้กองทัพสหรัฐฯ ที่อยู่ในสงครามและผู้เชี่ยวชาญด้านความมั่นคงแห่งชาติยังคงใช้เครื่องมือที่จำเป็นได้
- บริษัทจะยังคงให้บริการโมเดลและการสนับสนุนทางเทคนิคแก่กระทรวงสงครามและหน่วยงานด้านความมั่นคง ในต้นทุนเชิงสัญลักษณ์
- บริษัทมีเป้าหมายร่วมกับกระทรวงสงครามในเรื่อง การเสริมสร้างความมั่นคงของสหรัฐฯ และการขยายการใช้ AI ในภาครัฐ
- การตัดสินใจทั้งหมดในอนาคตจะตั้งอยู่บน สมมติฐานร่วมกัน นี้
1 ความคิดเห็น
ความเห็นจาก Hacker News
รู้สึกตกใจว่าหน้าต่าง Overton window ในประเด็นนี้เลื่อนไปไกลแค่ไหน
ตอนที่เรียนจบในปี 2007 เป็นเรื่องปกติมากที่บริษัทเทคโนโลยีจะปฏิเสธไม่ให้ระบบของตนถูกใช้ในสงคราม และก็มีเพื่อนร่วมรุ่นหลายคนที่ไม่อยากเข้าทำงานกับบริษัทแบบนั้นด้วยเหตุผลทางศีลธรรม
แต่ตอนนี้ Anthropic กลับพยายามตั้งข้อยกเว้นเพียงสองข้อด้วยเหตุผลเชิง ปฏิบัติ ไม่ใช่เหตุผลทางศีลธรรม แถมยังใช้ภาษาราวกับว่าจริงๆ แล้วอยากสนับสนุนสงครามแต่จำใจต้องยอม โลกเปลี่ยนไปมากจริงๆ
เป็นหนังต่อต้านนาปาล์มที่เสียดสีสถานการณ์ที่คนงานไม่รู้ว่าสินค้าที่ตนผลิตอยู่นั้นแท้จริงคืออาวุธ
ประโยคท้ายเรื่องที่ว่า “เราจะผลิตอะไรนั้นขึ้นอยู่กับ คนงาน นักศึกษา และวิศวกร” ยังใช้ได้อยู่จนถึงทุกวันนี้
เมื่อก่อนเรื่องแบบนี้เป็นส่วนหนึ่งของ การศึกษาด้านจริยธรรม แต่ทุกวันนี้ดูเหมือนแม้แต่วิชาแบบนั้นก็หายไปแล้ว
พวกเขาปฏิเสธเพียงเพราะเทคโนโลยีอาวุธสังหารอัตโนมัติยังพัฒนาไปไม่ถึงระดับนั้น โดยมีเงื่อนไขแฝงว่า ‘ยังไม่ถึงตอนนี้’
ถึงจะดีกว่า OpenAI แต่สุดท้ายก็เป็นแค่ ‘ตัวเลือกที่แย่น้อยกว่า’ เท่านั้น
แม้จะมีความจริงว่าจำเป็นต้องมีงานวิจัยด้านกลาโหม แต่ ระบบการตัดสินใจอัตโนมัติ ก็อันตรายหากหลุดพ้นจากการควบคุมของมนุษย์
คิดว่าควรมีกฎหมายบังคับให้มี ‘human-in-the-loop’
‘สงคราม’ ในปี 2007 คืออิรัก ส่วน ‘สงคราม’ ในตอนนี้รวมถึงกาซา อิหร่าน เวเนซุเอลา และความเป็นไปได้ของการบุกยูเครนหรือตามไต้หวันด้วย
คิดว่าภายใน Anthropic เองก็คงคำนึงถึงบริบทเหล่านี้อยู่
ตอนเรียนมหาวิทยาลัยมีเพื่อนคนหนึ่งอยากทำงานที่ DARPA พอถามมุมมองทางจริยธรรม เขาตอบว่า “นั่นไม่ใช่ปัญหาของผม”
สิ่งที่รู้สึกจากการเรียนในสหรัฐฯ คือทั้งผู้บริหารในภาคอุตสาหกรรมและมหาวิทยาลัยต่างก็ไม่สนใจ การคิดเชิงวิพากษ์และการศึกษาด้านจริยธรรม และมุ่งแต่จะปั้นคนให้เป็นเพียงเครื่องมือทางเทคนิค
แม้แต่ในสัปดาห์นวัตกรรม VR ของ Harvard ก็แทบไม่มีผู้ก่อตั้งหรือดีเวลอปเปอร์เข้าร่วมเซสชัน ‘จริยธรรมและกฎหมาย’ เลย การถกเถียงเรื่องผลกระทบต่อสังคมถูกกันออกไปอย่างสิ้นเชิง
สุดท้ายจึงรู้สึกว่า ความคลั่งไคล้เงินทอง ได้ทำลายความสามารถในการคิดของสังคมลง
ถ้าผลลัพธ์นั้นทำให้ใครสักคนตาย ฉันก็คิดว่าตัวเองมีส่วนรับผิดชอบ
แต่ปัญหาคือในโลกความจริง การรักษา เส้นแบ่งทางศีลธรรม ไว้นั้นยากเมื่อยังต้องหาเลี้ยงชีพ สุดท้ายก็เหมือนทุกคนอยู่ในเรือลำเดียวกัน
ในงานเขียนของจอร์จ ออร์เวลล์(ลิงก์) ก็พูดไว้ว่าการศึกษาทางวิทยาศาสตร์เพียงอย่างเดียวไม่อาจรับประกันมุมมองที่เป็นมนุษย์ได้
รู้สึกตกใจเมื่อเห็นประโยคที่ว่า “Anthropic มีจุดร่วมกับกระทรวงกลาโหมมากกว่าจุดต่าง”
แต่ตอนนี้การพูดถึง AI alignment ในบริบทเดียวกับ ‘การจัดแนวเข้าหากระทรวงสงคราม’ นั้นไม่เหมาะสมทางปัญญาอย่างมาก
ในบรรดาประเทศที่ถูกโจมตีในปีนี้ ไม่มีประเทศใดเป็นภัยคุกคามต่อการดำรงอยู่ของมนุษยชาติอย่างแท้จริง ตรงกันข้าม สงครามลักษณะนี้ต่างหากที่เพิ่ม ความเสี่ยงระดับแกนกลาง
น่าสงสัยว่าทำไมในหมู่นักวิจัยถึงไม่มีเสียงคัดค้านมากกว่านี้
มีความเป็นไปได้สูงที่ AI จะถูกทำให้เป็นของรัฐเพื่อวัตถุประสงค์ทางทหาร และการที่ Anthropic บอกว่าเทคโนโลยีของตัวเองอันตรายยิ่งกว่าระเบิดปรมาณู แต่กลับ ร่วมมือทางทหารกับ Palantir ก็เป็นความขัดแย้งในตัวเอง
เห็นคำพูดของ Anthropic เรื่อง “นักรบแนวหน้า(warfighter)” แล้วก็อดสงสัยไม่ได้
สองข้อยกเว้นนี้จะเพียงพอให้คงไว้ซึ่ง เส้นเขตแดนทางจริยธรรม ได้จริงหรือ?
Anthropic ทำให้ตัวเองดูเหมือนอยู่ฝั่งที่ดีกว่าจากเรื่องนี้ แต่ก็ยัง หาเงินจากอุตสาหกรรมสงคราม อยู่ดี
ไม่มีคำไหนที่สะท้อน สหรัฐฯ ปี 2026 แบบออร์เวลล์ ได้เท่ากับคำว่า “Warfighter” อีกแล้ว
มีการอ้างถึง บทความ Techdirt ของ Mike Masnick
หากเป็นรัฐบาลในอดีต จุดยืนอย่าง “เราอยากให้ AI ไม่ตัดสินใจสังหารโดยไม่มีมนุษย์เกี่ยวข้อง” คงเป็นเงื่อนไขการเจรจาธรรมดาทั่วไป
แต่ตอนนี้กลับกลายเป็นสถานการณ์ที่รัฐมนตรีกลาโหมออกมาประณามบริษัทต่อสาธารณะว่าเป็น ‘ผู้ทรยศ’ ประธานาธิบดีสั่งให้ทุกหน่วยงานรัฐหยุดใช้งาน และ CEO ต้องเขียน คำขอโทษที่เหมือน ‘จดหมายตัวประกัน’
หาก อำนาจและความคอร์รัปชัน ของรัฐบาลไม่ถูกควบคุม บริษัทต่างๆ ก็สุดท้ายจะลงเอยด้วยการทำข้อตกลงแบบนี้
ช่วงแรกอาจเริ่มจากเงินและความรักชาติ แต่จากนั้นก็จะค่อยๆ พัวพันกับ สิ่งที่ย้อนกลับไม่ได้ และยิ่งถอนตัวก็ยิ่งยาก
แล้วก็จะมี CEO คนใหม่เข้ามาพร้อมพูดว่า “คนก่อนอ่อนเกินไป ฉันไม่เหมือนเขา” ก่อนจะทำ วงจรอุบาทว์ เดิมซ้ำอีกครั้ง
อยากพูดกับคนที่ต้องการนำเทคโนโลยีไปให้กับอุตสาหกรรมสงครามแบบนี้
“ทุกสิ่งอาจถูกช่วงชิงไปได้ แต่ มโนธรรม จะไม่สูญหาย เว้นแต่เราจะยอมละทิ้งมันเอง”
หลายคนทำงานที่นั่นเพราะ ความเชื่อ ว่าตนกำลังช่วยรัฐบาล
น่าสนใจมากว่าคดีนี้จะลงเอยอย่างไรทั้งในศาลและ ศาลของสังคม
คิดว่าเป็นกรณีสำคัญและหวังว่าจะออกมาในทิศทางที่ถูกต้อง
รัฐมนตรีช่วยว่าการกระทรวงสงคราม Emil Michael ประกาศอย่างเป็นทางการ ว่า “ไม่มีการเจรจากับ Anthropic”
มีพูดถึงอย่างละเอียดใน บทสัมภาษณ์ a16z news