- กระทรวงกลาโหมสหรัฐกำหนดให้ Anthropic เป็น ความเสี่ยงด้านซัพพลายเชน อย่างเป็นทางการ และดำเนินมาตรการปิดกั้นการทำธุรกิจกับผู้รับเหมาที่ร่วมงานกับเพนตากอน
- โดยปกติการกำหนดเช่นนี้จะใช้กับ บริษัทจากประเทศศัตรูต่างชาติ และนี่เป็นหนึ่งในกรณีแรก ๆ ที่นำมาใช้กับบริษัทอเมริกัน
- ขณะที่กระทรวงกลาโหมต้องการให้ใช้ AI ได้ใน ทุกการใช้งานที่ชอบด้วยกฎหมาย Anthropic กลับเรียกร้องการรับประกันอย่างชัดเจนว่าเทคโนโลยีของตนจะไม่ถูกใช้กับ อาวุธอัตโนมัติและการสอดส่องภายในประเทศในวงกว้าง
- อาจมีผลกระทบในวงกว้างต่อ พันธมิตรและนักลงทุน ของ Anthropic เช่น Lockheed Martin, Amazon และ Google
- Anthropic ระบุว่าจะ ดำเนินการทางกฎหมาย ต่อการกำหนดนี้ ซึ่งถูกวิเคราะห์ว่าอาจสร้างผลกระทบเชิงยับยั้งต่อความสัมพันธ์ระหว่างอุตสาหกรรม AI กับรัฐบาล
การกำหนดอย่างเป็นทางการและภูมิหลัง
- กระทรวงกลาโหมแจ้งผู้บริหารของ Anthropic อย่างเป็นทางการเมื่อวันพฤหัสบดี โดยตัดสินว่าบริษัทและเครื่องมือ AI ของบริษัทถือเป็น ภัยคุกคามด้านความมั่นคง
- เจ้าหน้าที่อาวุโสของกระทรวงกลาโหมกล่าวว่า "เราไม่อาจยอมให้ผู้ขายเข้ามาแทรกแซงสายการบังคับบัญชา จำกัดการใช้ขีดความสามารถหลักอย่างชอบด้วยกฎหมาย และทำให้กำลังพลทหารตกอยู่ในความเสี่ยงได้"
- รัฐมนตรีกลาโหม Pete Hegseth เคยส่งสัญญาณถึงการกำหนดความเสี่ยงด้านซัพพลายเชนเมื่อสัปดาห์ที่แล้ว แต่ทั้งสองฝ่ายยังคง เจรจาต่อเนื่อง เพื่อหาข้อตกลง
ความขัดแย้งของจุดยืนทั้งสองฝ่าย
- เพนตากอนเรียกร้องให้ Anthropic อนุญาตให้ใช้ AI ใน ทุกการใช้งานที่ชอบด้วยกฎหมาย
- Anthropic เรียกร้องการรับประกันอย่างชัดเจนว่าเทคโนโลยีของบริษัทจะไม่ถูกใช้กับ อาวุธอัตโนมัติ และ การสอดส่องภายในประเทศในวงกว้าง
- Anthropic ประกาศเมื่อสัปดาห์ที่แล้วว่าจะ ยื่นคัดค้านต่อศาล ต่อการกำหนดนี้
ขอบเขตของการกำหนดและข้อถกเถียงทางกฎหมาย
- การกำหนดความเสี่ยงด้านซัพพลายเชนสามารถบังคับใช้ได้ทั้งในวงกว้างมากหรือในวงแคบ
- การประกาศของ Hegseth เมื่อสัปดาห์ที่แล้วเป็นคำสั่งให้ ทุกบริษัท ที่ร่วมงานกับกองทัพไม่สามารถทำธุรกิจกับ Anthropic ได้ ซึ่งนักวิเคราะห์บางส่วนชี้ว่านี่อาจ เกินขอบเขตอำนาจทางกฎหมายของเพนตากอน
- ตามความเห็นของนักวิเคราะห์เหล่านี้ กระทรวงกลาโหมสามารถสั่งได้เพียงไม่ให้บริษัทต่าง ๆ ใช้ Claude ในงานที่เกี่ยวข้องกับเพนตากอนเท่านั้น
- นี่เป็น หนึ่งในกรณีแรก ๆ ที่มีการใช้การกำหนดนี้กับบริษัทอเมริกัน และมีคำเตือนว่าอาจสร้าง ผลกระทบเชิงยับยั้ง ต่อบริษัทอื่นที่ต้องการทำธุรกิจกับรัฐบาล
บันทึกภายในของ CEO Anthropic
- ตามรายงานของ The Information บันทึกที่ CEO Dario Amodei ส่งถึงพนักงานเมื่อสัปดาห์ที่แล้วระบุว่า เหตุผลที่รัฐบาลพุ่งเป้าไปที่ Anthropic ก็เพราะบริษัท "ไม่ได้ส่งคำยกย่องแบบเผด็จการต่อ Trump" และคัดค้านวาระด้าน AI ของรัฐบาล
- บันทึกดังกล่าวยังวิจารณ์คู่แข่งอย่าง OpenAI โดย OpenAI มีสัญญากับกระทรวงกลาโหมเพื่อใช้ใน ระบบลับ
- OpenAI ได้เพิ่ม ข้อห้ามด้านการสอดส่อง ลงในสัญญาฉบับดังกล่าวอย่างชัดเจนในสัปดาห์นี้ หลังเกิดกระแสคัดค้านจากพนักงาน
สถานะการใช้งานทางทหารในปัจจุบัน
- ก่อนหน้านี้ Claude ของ Anthropic เป็น AI เพียงรายเดียวที่ได้รับ การอนุมัติให้ใช้งานในสภาพแวดล้อมลับ และล่าสุด xAI ของ Elon Musk ก็ได้รับอนุมัติเช่นกัน
- ปัจจุบัน Claude ถูกกองทัพใช้งานใน ปฏิบัติการอิหร่าน และเคยถูกใช้ในปฏิบัติการ จับกุม อดีตผู้นำเวเนซุเอลา Nicolás Maduro
- Anthropic มีความร่วมมือกับ Palantir บริษัททำเหมืองข้อมูลที่จัดหาซอฟต์แวร์ให้กระทรวงกลาโหม
ผลกระทบต่อพันธมิตรและนักลงทุน
- มาตรการครั้งนี้อาจก่อให้เกิดผลตามมาในวงกว้างต่อ พันธมิตรและนักลงทุน ของ Anthropic เช่น Lockheed Martin, Amazon และ Google
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
มาตรการแบบนี้น่าจะทำให้บริษัทอเมริกันกลัวการทำสัญญากับรัฐบาลในอนาคต
ถ้ารัฐบาลตั้งใจ ก็สามารถไม่ใช่แค่ยกเลิกหรือเจรจาสัญญาเดิมใหม่ แต่ผลักไปถึงขั้น ห้ามทำธุรกิจกับทั้งอุตสาหกรรม ได้เลย
วิศวกรจำนวนมากพยายามหลีกเลี่ยงการเมือง แต่กรณีนี้แสดงให้เห็นว่าในท้ายที่สุดการเมืองก็ย้อนกลับมาครอบงำอุตสาหกรรมเทคโนโลยีอยู่ดี
ภาคประชาสังคม ควรกังวลกับการโจมตีแบบนี้อย่างจริงจัง
เมื่ออำนาจแบบนี้เกิดขึ้นแล้ว สุดท้ายมันก็ย้อนกลับไปหาอีกฝ่ายเสมอ
ตอนนี้สหรัฐกำลังมุ่งหน้าไปสู่ สังคมควบคุมระดับนาซีเยอรมนี และประชาชนมากกว่าครึ่งก็สนับสนุนมัน
การถูกระบุว่าเป็น ‘ความเสี่ยงต่อห่วงโซ่อุปทาน’ ครั้งนี้ก็คงไม่ปลุกให้เกิดความตระหนักอะไรได้
เพราะพวกเขาข้าม เส้นแดง ที่รัฐบาลก่อน ๆ ไม่เคยข้ามโดยไม่มีบทลงโทษใด ๆ ตอนนี้เลยเหมือนจะไม่แคร์แล้วด้วยซ้ำ
การปิด USAID เป็นตัวอย่างชัดเจน ที่ทำลายผลประโยชน์ของสหรัฐเองด้วยเหตุผลง่าย ๆ แค่ว่า “อย่าเอาภาษีไปช่วยคนต่างชาติ”
ทวีตเรื่องกระทรวงกลาโหมระบุ Anthropic เป็นความเสี่ยงต่อห่วงโซ่อุปทาน และ
บทความ Reuters เรื่อง Anthropic เตรียมดำเนินการทางกฎหมาย
ปัญหาคือพยายามทำข้อตกลงกับปีศาจแต่หวังจะควบคุมเงื่อนไขเอง
ถึงอย่างนั้นก็ยังชื่นชมที่บริษัทพยายามรักษา เส้นแดงของตัวเอง เกี่ยวกับการใช้เทคโนโลยี
ปัญหาคือฝั่งมนุษย์ต่างหากที่ไม่ได้อ่านรายละเอียดให้ดี
ยังทำงานอีกมากใน ด้านที่ไม่ใช่การรบ ดังนั้นการร่วมมือในด้านเหล่านั้นก็ไม่ใช่เรื่องเลวร้าย
น่าสนใจว่าผู้ลงนามใน notdivided.org จะเลือกอย่างไรต่อไป
ก็เป็นไปได้ว่าอาจ ลงมือชักใยสถานการณ์โดยตรง
บทความใน Wikipedia ก็ระบุไว้อย่างชัดเจน
เพราะพวกเขาเคยทำงานกับบริษัทที่มีชื่อเสียงเสียหายอยู่แล้ว
ใช้แค่ทดสอบเล็ก ๆ น้อย ๆ แบบฟรี ๆ แต่จนถึงตอนนี้พอใจมากกว่ามาก
มันเพียงพอกับสิ่งที่ต้องใช้ ทำให้การยกเลิกสมัคร ChatGPT เป็นการตัดสินใจที่ง่ายมาก
ใช้ไฟล์ในเครื่องเหมือนเป็นหน่วยความจำ และเข้าถึงได้ทันทีด้วยคำสั่งคำเดียว
สุดท้ายอาจทำธุรกิจในสหรัฐไม่ได้ และอาจต้องย้ายออกไปต่างประเทศ
ถ้ามีการตัดสินใจยึดทรัพย์สินของบริษัทอีกครั้ง เมื่อนั้นก็คงเป็นหลักฐานชัดเจนแน่นอน
คำตอบจะหลากหลายมาก และน่าสนใจที่ ช่วงของการปฏิเสธ กว้างขนาดนั้น
แต่ถ้าบางฝ่าย (เช่น OpenAI) ยอมจำนน สิ่งนั้นก็จะกลายเป็น มาตรฐานใหม่ และจะมีเป้าหมายรายต่อไป