- Pete Hegseth สั่งให้กระทรวงกลาโหมกำหนดให้ Anthropic เป็นบริษัทที่มี ความเสี่ยงต่อห่วงโซ่อุปทานด้านความมั่นคงแห่งชาติ และสั่งห้ามผู้รับเหมาทุกรายที่ทำธุรกิจกับกองทัพสหรัฐใช้งาน Anthropic
- วิจารณ์ว่า Anthropic ไม่ยอมทำตามข้อเรียกร้องเรื่อง การเข้าถึงโมเดลแบบไม่จำกัดสำหรับวัตถุประสงค์ด้านกลาโหมที่ชอบด้วยกฎหมายทั้งหมด
- ประธานาธิบดี Trump สั่งผ่าน Truth Social ให้ หยุดใช้เทคโนโลยีของ Anthropic ในทุกหน่วยงานรัฐบาลกลางโดยทันที พร้อมให้ระยะเปลี่ยนผ่าน 6 เดือน
- ในการเจรจาที่ดำเนินมาหลายเดือน Anthropic เรียกร้องให้มีมาตรการป้องกันเพื่อไม่ให้โมเดลถูกใช้กับ การสอดส่องภายในประเทศในวงกว้าง และ การพัฒนาอาวุธอัตโนมัติที่ไม่มีมนุษย์แทรกแซง แต่กระทรวงกลาโหมปฏิเสธ
- ปัจจุบัน Claude เป็น โมเดล AI เพียงตัวเดียวที่ใช้ในระบบลับของกองทัพสหรัฐ และเคยถูกใช้ในปฏิบัติการจับกุม Maduro ทำให้คาดว่าการเปลี่ยนผ่านจะยากอย่างมาก
- มาตรการครั้งนี้เป็น กรณีแรก ที่การกำหนดความเสี่ยงด้านห่วงโซ่อุปทานถูกนำมาใช้กับบริษัทอเมริกัน และจะกลายเป็นบรรทัดฐานสำคัญต่อความสัมพันธ์ระหว่างบริษัท AI กับความมั่นคงแห่งชาติ
แถลงการณ์อย่างเป็นทางการของรัฐมนตรีกลาโหม Pete Hegseth
- วิจารณ์ว่า Anthropic และ CEO Dario Amodei พยายามใช้อำนาจยับยั้งต่อกองทัพสหรัฐโดย ซ่อนอยู่หลังวาทกรรมเรื่อง "effective altruism"
- ย้ำว่ากระทรวงกลาโหมเรียกร้อง สิทธิการเข้าถึงโมเดลอย่างเต็มรูปแบบและไม่จำกัดสำหรับทุกวัตถุประสงค์ที่ชอบด้วยกฎหมาย และจุดยืนนี้จะไม่เปลี่ยนแปลง
- ประกาศว่าเงื่อนไขการใช้งานของ Anthropic จะมีความสำคัญเหนือ ความปลอดภัย ความพร้อมรบ และชีวิตของทหารสหรัฐ ไม่ได้
- มีผลทันที โดย ผู้รับเหมา ซัพพลายเออร์ หรือพาร์ตเนอร์ใดก็ตามที่ทำธุรกิจกับกองทัพสหรัฐ จะไม่สามารถทำกิจกรรมเชิงพาณิชย์กับ Anthropic ได้
- อนุญาตให้ Anthropic ให้บริการแก่กระทรวงกลาโหมต่อได้ นานสูงสุด 6 เดือน เพื่อให้การเปลี่ยนผ่านเป็นไปอย่างราบรื่น
- ระบุว่า นี่คือคำตัดสินสุดท้าย พร้อมกล่าวว่า "ทหารอเมริกันจะไม่มีวันตกเป็นตัวประกันของความผันผวนทางอุดมการณ์ของบิ๊กเทค"
เบื้องหลังข้อพิพาท: การเจรจาหลายเดือน
- Anthropic และกระทรวงกลาโหมดำเนิน การเจรจาที่ตึงเครียดต่อเนื่องหลายเดือน เรื่องเงื่อนไขการใช้ Claude ของกองทัพ
- Anthropic เปิดกว้างต่อการปรับนโยบายการใช้งาน แต่ยืนยันมาตรการป้องกัน 2 ข้อเพื่อไม่ให้โมเดลถูกใช้กับ การสอดส่องชาวอเมริกันในวงกว้าง และ การพัฒนาอาวุธที่ยิงได้โดยไม่มีมนุษย์แทรกแซง
- กระทรวงกลาโหมมองว่านี่เป็น ข้อจำกัดที่มากเกินไป และโต้ว่าในทางปฏิบัติใช้งานจริงไม่ได้ เพราะนิยามของการสอดส่องวงกว้างและอาวุธอัตโนมัติมี พื้นที่สีเทา มาก
- กระทรวงกลาโหมกำลังเจรจากับไม่เพียงแต่ Anthropic แต่รวมถึง OpenAI, Google, xAI เพื่อให้ใช้โมเดลได้ตามมาตรฐาน "all lawful purposes"
- มีรายงานว่าเจ้าหน้าที่ระดับสูงของกระทรวงกลาโหมไม่พอใจ Anthropic มานาน และ ฉวยใช้โอกาสในการปะทะกันต่อสาธารณะอย่างเต็มที่
การพบหารือโดยตรงระหว่าง Hegseth-Amodei (24 กุมภาพันธ์)
- Hegseth แจ้ง Amodei ว่ากระทรวงกลาโหมจะเลือกอย่างใดอย่างหนึ่งระหว่าง การกำหนดความเสี่ยงด้านห่วงโซ่อุปทาน หรือ การใช้อำนาจตาม Defense Production Act
- Defense Production Act เป็นกฎหมายจากยุคทศวรรษ 1950 ที่ให้อำนาจรัฐ บังคับ ให้บริษัทผลิตสินค้าบางประเภทในภาวะฉุกเฉินระดับชาติ
- เจ้าหน้าที่รายหนึ่งกล่าวถึงบรรยากาศในการประชุมว่า "ไม่ได้อบอุ่น" ขณะที่อีกแหล่งข่าวระบุว่าเป็นไปอย่าง "สุภาพ" โดยไม่มีการขึ้นเสียง
- Hegseth ชื่นชม Claude ต่อหน้า Amodei แต่ย้ำว่า ไม่มีบริษัทใดสามารถกำหนดเงื่อนไขการตัดสินใจดำเนินงานของกระทรวงกลาโหม หรือคัดค้านกรณีการใช้งานเฉพาะรายได้
- Hegseth กล่าวถึงข้ออ้างของกระทรวงกลาโหมอย่างเจาะจงว่า Anthropic เคยแสดงความกังวลต่อ Palantir เรื่องการใช้ Claude ระหว่างปฏิบัติการ Maduro แต่ Amodei ปฏิเสธ
- ในการประชุมมีบุคคลระดับสูงจำนวนมากเข้าร่วม เช่น รองรัฐมนตรีกลาโหม Steve Feinberg, ปลัดฝ่ายวิจัยและวิศวกรรม Emil Michael, และปลัดฝ่ายจัดซื้อ Michael Duffey
การปฏิเสธครั้งสุดท้ายของ Amodei และปฏิกิริยาจากกระทรวงกลาโหม
- Amodei ปฏิเสธ "ข้อเสนอที่ดีที่สุดและเป็นข้อเสนอสุดท้าย" ของกระทรวงกลาโหมเมื่อวันพฤหัสบดี โดยระบุว่า "ด้วยมโนธรรมของตน ผมไม่อาจเห็นชอบกับข้อเรียกร้องของพวกเขาได้"
- Emil Michael เรียก Amodei ว่าเป็น "คนโกหก" และคนที่มี "ปมพระเจ้า" พร้อมกล่าวหาว่าเขา ยอมรับให้ความมั่นคงแห่งชาติตกอยู่ในความเสี่ยง
- ฝั่ง Anthropic ยังคงใช้ น้ำเสียงประนีประนอม หลังการประชุม โดยระบุว่า "Anthropic ยังคงเดินหน้าพูดคุยด้วยความสุจริตใจเกี่ยวกับนโยบายการใช้งาน เพื่อให้สามารถสนับสนุนภารกิจด้านความมั่นคงแห่งชาติของรัฐบาลต่อไปได้"
ความสำคัญเชิงยุทธศาสตร์ของ Claude และโจทย์ยากในการเปลี่ยนผ่าน
- ปัจจุบัน Claude เป็น โมเดล AI เพียงตัวเดียวที่ถูกใช้ในระบบลับของกองทัพสหรัฐ
- มันถูกใช้ผ่านความร่วมมือกับ Palantir ใน ปฏิบัติการจับกุม Maduro และอาจถูกใช้ในปฏิบัติการทางทหารต่ออิหร่านที่เป็นไปได้ในอนาคต
- เจ้าหน้าที่กระทรวงกลาโหมเองก็ยอมรับศักยภาพของ Claude และบอกว่าการเปลี่ยนผ่านจะเป็น "ความเจ็บปวดมหาศาล"
- เจ้าหน้าที่รายหนึ่งกล่าวว่า "เหตุผลเดียวที่เรายังคุยอยู่ก็เพราะ เราจำเป็นต้องใช้พวกเขา และจำเป็นต้องใช้ตอนนี้ ปัญหาคือพวกเขาเก่งขนาดนั้น"
- มูลค่าสัญญาของ Anthropic กับกระทรวงกลาโหมอยู่ที่ สูงสุด 200 ล้านดอลลาร์ ซึ่งเป็นเพียงส่วนเล็กมากของรายได้ต่อปี 14 พันล้านดอลลาร์
- แต่เนื่องจาก Anthropic ระบุว่าบริษัท 8 แห่งจาก 10 อันดับแรกของสหรัฐใช้งาน Claude อยู่ จึงคาดว่า ผลกระทบลูกโซ่ ของการกำหนดความเสี่ยงด้านห่วงโซ่อุปทานจะกว้างขวาง
โมเดลทางเลือกและความเคลื่อนไหวของคู่แข่ง
- ล่าสุด xAI ของ Elon Musk ได้ลงนามสัญญานำ Grok เข้าใช้ในสภาพแวดล้อมลับ แต่ยังไม่แน่ชัดว่าจะทดแทน Claude ได้ทั้งหมดหรือไม่
- กระทรวงกลาโหมกำลังเร่งหารือเพื่อย้ายโมเดลของ OpenAI และ Google จากสภาพแวดล้อมไม่ลับเข้าสู่ระบบลับ
- เจ้าหน้าที่ระดับสูงของฝ่ายบริหารยอมรับว่าโมเดลคู่แข่ง "ยังตามหลังเล็กน้อย" ในแอปพลิเคชันเฉพาะทางของภาครัฐ ซึ่งทำให้การเปลี่ยนอย่างฉับพลันทำได้ยาก
- OpenAI, Google และ xAI ได้ตกลงลบมาตรการป้องกันบางส่วนออกไปแล้วในระบบที่ไม่ลับ แต่ยังไม่ได้ถูกใช้กับงานลับ
ปฏิกิริยาจาก OpenAI
- Sam Altman ซีอีโอของ OpenAI ประกาศผ่านบันทึกเมื่อวันศุกร์ว่า OpenAI มี เส้นแดงเดียวกัน กับ Anthropic
- ระบุว่า "AI ไม่ควรถูกใช้กับการสอดส่องในวงกว้างหรืออาวุธสังหารอัตโนมัติ และการตัดสินใจอัตโนมัติที่มีความเสี่ยงสูงควรมีมนุษย์เข้ามาเกี่ยวข้อง"
- OpenAI ก็มี สัญญา 200 ล้านดอลลาร์ กับกระทรวงกลาโหมเช่นกัน แต่เป็นสัญญาสำหรับงานที่ไม่ลับ
แถลงการณ์ของประธานาธิบดี Trump
- สั่งผ่าน Truth Social ให้ "ยุติการใช้เทคโนโลยีของ Anthropic ในทุกหน่วยงานรัฐบาลกลางโดยทันที"
- ประกาศว่า "เราไม่ต้องการ ไม่อยากได้ และจะไม่ทำธุรกิจด้วยอีกต่อไป"
- เรียก Anthropic ว่าเป็น "พวกซ้ายจัดเสียสติ" และตำหนิว่าเป็น "ความผิดพลาดระดับหายนะ" ที่พยายามบังคับให้กระทรวงกลาโหมทำตามเงื่อนไขการใช้งานแทนที่จะทำตามรัฐธรรมนูญ
ปฏิกิริยาทางการเมืองและความกังวล
- วุฒิสมาชิก Mark Warner รองประธานคณะกรรมาธิการข่าวกรองวุฒิสภา วิจารณ์มาตรการของ Trump
- แสดงความกังวลอย่างจริงจังว่าการตัดสินใจด้านความมั่นคงแห่งชาติอาจกำลังถูกขับเคลื่อนด้วย การเมืองมากกว่าการวิเคราะห์อย่างรอบคอบ
- เตือนว่าการข่มขู่และลดทอนคุณค่าบริษัทอเมริกันเพื่อใช้เป็น ข้ออ้างในการชี้นำสัญญาไปยังผู้ขายที่ต้องการ สร้างความเสี่ยงอย่างมหาศาลต่อประเทศ
- ยังมีความกังวลด้วยว่าบางหน่วยงานรัฐบาลกลางอาจถูกบังคับให้เปลี่ยนไปใช้โมเดลที่ถูกระบุแล้วว่ามีปัญหาเรื่อง ความน่าเชื่อถือ ความปลอดภัย และภัยคุกคามด้านความมั่นคง
จุดยืนของ Anthropic และแนวโน้มต่อจากนี้
- ในบทความเมื่อเดือนมกราคม Dario Amodei ระบุความกังวลหลักว่า "จำนวนมือที่วางอยู่เหนือปุ่มมีน้อยเกินไป" โดยเตือนถึงสถานการณ์ที่มนุษย์เพียงไม่กี่คนสามารถ ควบคุมกองทัพโดรน ได้โดยไม่ต้องอาศัยความร่วมมือจากผู้อื่น
- Anthropic มีแผน IPO ในปีนี้ และยังไม่ชัดเจนว่าความขัดแย้งกับฝ่ายบริหารจะส่งผลต่อนักลงทุนอย่างไร
- Amodei กล่าวว่าแม้จะเผชิญหน้ากับรัฐบาล Trump มูลค่าบริษัทและรายได้ของ Anthropic กลับเติบโตขึ้น
- การ กำหนดความเสี่ยงด้านห่วงโซ่อุปทาน ครั้งนี้เดิมเป็นมาตรการที่ใช้กับ บริษัทจากประเทศศัตรูอย่างรัสเซียหรือจีนเท่านั้น และเชื่อกันว่านี่เป็นครั้งแรกที่ถูกใช้กับบริษัทอเมริกัน
- เนื่องจาก Palantir เองก็ใช้ Claude กับงานลับอยู่ จึงต้อง เปลี่ยนไปใช้โมเดลของคู่แข่ง ด้วยเช่นกัน
3 ความคิดเห็น
สหรัฐอเมริกา “จีน”
รู้สึกแย่ ขอโทษ
ความคิดเห็นจาก Hacker News
ผมคิดว่า DoW(Department of War) กับ Anthropic น่าจะมีสัญญากันอยู่แล้ว และในนั้นก็คงมีเงื่อนไขที่ระบุชัดว่าอะไรอนุญาตและอะไรห้าม
แต่ตอนนี้ DoW กำลังพยายามกลับคำจากเงื่อนไขในสัญญานั้น พอลองอ่าน แถลงการณ์อย่างเป็นทางการ ของ Dario อีกรอบ ก็เห็นว่ากรณีการใช้งานที่ DoW อ้างถึงนั้น ไม่ได้อยู่ในสัญญาตั้งแต่แรก
สรุปคือ Anthropic กำลังยึดตามสัญญาเดิม และดูเหมือนว่า DoW กำลัง พยายามแก้สัญญาโดยไม่สุจริต
เงื่อนไขสัญญาเดิมเป็นสิ่งที่เพนตากอนเคยยอมรับไว้แล้ว และตอนนี้ฝ่ายเพนตากอนกำลังพยายามเปลี่ยนมันฝ่ายเดียว
ก็เหมือนกับการบอกว่าอย่าใช้ท่อที่มีตะกั่วปนสำหรับน้ำดื่ม
การบอกว่าเป็นบริษัทที่อันตรายจนเป็นภัยต่อความมั่นคงของชาติ แต่ก็จะยัง ใช้งานต่อไปอีก 6 เดือน ฟังดูขัดแย้งกันเอง
ผมประทับใจที่ Anthropic ยืนหยัดตามหลักการ บริษัทแบบนี้แหละที่อยากร่วมงานด้วย
ผมสนับสนุนจุดยืนของ Anthropic ที่ไม่ต้องการมีส่วนร่วมกับการสังหารหรือการสอดส่อง
ในฐานะ ทหารผ่านศึกผู้รักชาติของอเมริกัน ผมกลับคิดว่าให้ Anthropic ย้ายไปยุโรปเสียดีกว่า
อย่างที่ Rutger Bregman พูดไว้ ยุโรปควบคุม คอขวดด้านฮาร์ดแวร์ AI ผ่าน ASML อยู่แล้ว และถ้า Anthropic เข้าร่วม ก็อาจเป็นฐานของมหาอำนาจ AI ได้ (ลิงก์ทวีต)
มาตรการครั้งนี้อาจเป็น ผลกระทบรุนแรงถึงขั้นเล่นงานบริษัท สำหรับ Anthropic
ถ้าบริษัททุกแห่งที่ทำธุรกิจกับ DoD ถูกห้ามทำธุรกิจเชิงพาณิชย์กับ Anthropic ก็มีความเสี่ยงที่ Claude จะถูกถอดออกจากแพลตฟอร์มคลาวด์อย่าง AWS, Google และ Microsoft
ข้อจำกัดที่ Anthropic เรียกร้องมีแค่สองข้อ
(1) ห้ามการสอดส่องมวลชนภายในประเทศ, (2) การตัดสินใจสังหารต้องมีมนุษย์เข้ามาเกี่ยวข้องเสมอ
แค่นี้ยังถือว่าเป็นเงื่อนไขที่อ่อนมากด้วยซ้ำ (แถลงการณ์อย่างเป็นทางการ)
รู้สึกว่าหัวข้อแบบนี้คุยบน HN ได้ยาก
แม้จะควรหลีกเลี่ยงการถกการเมือง แต่ประเด็นนี้เป็น ตัวอย่างที่อุดมการณ์และนโยบายส่งผลต่อเทคโนโลยีโดยตรง
แต่แนวทางของ HN ก็เขียนไว้ว่า “ให้ตีความโดยตั้งอยู่บนเจตนาดี” ดังนั้นหัวข้อแบบนี้จึงแตะได้ยากโดยธรรมชาติ
การคุยถึงความสัมพันธ์ระหว่างเทคโนโลยีกับนโยบายเป็นสิ่งที่ยินดีต้อนรับมาโดยตลอด
ประโยคที่ว่า “ทุกบริษัทที่ทำธุรกิจกับกองทัพสหรัฐฯ ถูกห้ามทำธุรกิจเชิงพาณิชย์กับ Anthropic” น่าตกใจมาก
เลยสงสัยว่า AWS หรือ GCP จะไม่สามารถขาย Claude ต่อได้หรือเปล่า
มหาวิทยาลัยอย่าง MIT, Stanford, Caltech ที่ ได้รับทุนวิจัยจากรัฐบาล ก็อาจต้องหยุดใช้ Claude เช่นกัน
ในฐานะคนลาตินอเมริกา เมื่อก่อนผมเคยเชียร์สหรัฐฯ แต่ตอนนี้ไม่แล้ว
สหรัฐฯ มี แนวโน้มปฏิบัติต่อลาตินอเมริกาแบบบีบบังคับ และโลกที่จีนเป็นผู้นำกลับรู้สึกก้าวร้าวน้อยกว่า
McCarthyism ในยุค Truman ปี 1947 เริ่มจากการตรวจสอบความภักดี ก่อนจะลุกลามไปสู่บัญชีดำและการคุมขัง (ลิงก์วิกิ)
สถานการณ์ตอนนี้ดูเหมือนการหวนกลับไปสู่ยุคนั้น ถ้าไม่ทำตามที่รัฐบาลพูด ก็จะถูก ขึ้นบัญชีดำหรือโดนลงโทษ