- ประกาศว่าการที่ Pete Hegseth ประกาศระบุให้เป็นความเสี่ยงด้านห่วงโซ่อุปทาน ไม่มีฐานทางกฎหมายรองรับ และจะต่อสู้ในชั้นศาล
- ระบุว่าในการเจรจาตลอดหลายเดือน Anthropic ขอข้อยกเว้นเพียง สองกรณี คือ การสอดส่องภายในประเทศในวงกว้าง และ อาวุธอัตโนมัติเต็มรูปแบบ และข้อยกเว้นเหล่านี้ไม่เคยส่งผลต่อภารกิจของรัฐบาลแม้แต่ครั้งเดียวจนถึงตอนนี้
- เห็นว่าปัจจุบันโมเดล Frontier AI ยัง ไม่น่าเชื่อถือเพียงพอ สำหรับการใช้ในอาวุธอัตโนมัติเต็มรูปแบบ และการอนุญาตให้ใช้จะยิ่งเพิ่มความเสี่ยงต่อทหารสหรัฐและพลเรือน
- การระบุว่าเป็นความเสี่ยงด้านห่วงโซ่อุปทานนั้น ในอดีตถูกใช้กับ ประเทศศัตรูของสหรัฐเท่านั้น และไม่เคยมีมาก่อนที่จะถูกใช้ต่อสาธารณะกับบริษัทอเมริกัน
- แจ้งลูกค้าว่าการเข้าถึง Claude ของลูกค้าทั่วไปและผู้รับจ้างเชิงพาณิชย์ ไม่ได้รับผลกระทบ และมาตรการนี้จำกัดเฉพาะงานตามสัญญากับกระทรวงกลาโหม
เบื้องหลังและความคืบหน้าของการเจรจา
- รัฐมนตรี Hegseth ประกาศบน X ว่าจะ สั่งให้ระบุ Anthropic เป็นความเสี่ยงด้านห่วงโซ่อุปทาน
- มาตรการครั้งนี้เกิดขึ้นหลังการเจรจาที่ดำเนินมาหลายเดือนเกี่ยวกับ ข้อยกเว้นสองประการ ที่ Anthropic ขอไว้สำหรับการใช้งาน Claude ทางทหารเข้าสู่ภาวะชะงักงัน
- ข้อยกเว้น 1: การสอดส่องภายในประเทศในวงกว้างต่อชาวอเมริกัน
- ข้อยกเว้น 2: อาวุธอัตโนมัติเต็มรูปแบบ
- ณ เวลาที่ออกแถลงการณ์ Anthropic ระบุว่ายัง ไม่ได้รับการแจ้งอย่างเป็นทางการโดยตรงเกี่ยวกับสถานะการเจรจา จากกระทรวงกลาโหมหรือทำเนียบขาว
จุดยืนของ Anthropic
- ได้สื่อสารกับกระทรวงกลาโหมอย่างชัดเจนว่าสนับสนุน การใช้ AI ด้านความมั่นคงแห่งชาติที่ถูกกฎหมายทุกกรณี ยกเว้นสองข้อยกเว้นข้างต้น
- ยืนยันว่าข้อยกเว้นเหล่านี้ ไม่เคยส่งผลต่อภารกิจของรัฐบาลแม้แต่ครั้งเดียว จนถึงปัจจุบัน
- เหตุผลสองข้อที่ยังคงยึดข้อยกเว้นเหล่านี้ไว้:
- ปัจจุบันโมเดล Frontier AI ยัง ไม่น่าเชื่อถือเพียงพอ สำหรับการใช้ในอาวุธอัตโนมัติเต็มรูปแบบ และหากอนุญาตจะสร้างความเสี่ยงต่อทหารสหรัฐและพลเรือน
- การสอดส่องภายในประเทศในวงกว้างเป็นการละเมิดสิทธิขั้นพื้นฐาน
การตอบโต้ทางกฎหมายและความกังวลเรื่องบรรทัดฐาน
- การระบุว่าเป็นความเสี่ยงด้านห่วงโซ่อุปทานนั้น ในอดีตเป็นมาตรการที่ใช้ เฉพาะกับประเทศศัตรูของสหรัฐ และ ไม่เคยมีแบบอย่าง ที่จะใช้ต่อสาธารณะกับบริษัทอเมริกัน
- Anthropic เตือนว่าการระบุดังกล่าว ไม่มีฐานทางกฎหมายรองรับ (legally unsound) และจะเป็น บรรทัดฐานอันตราย ต่อทุกบริษัทอเมริกันที่กำลังเจรจากับรัฐบาล
- ระบุชัดว่าจะไม่เปลี่ยนจุดยืนเรื่องการสอดส่องภายในประเทศในวงกว้างและอาวุธอัตโนมัติเต็มรูปแบบ ไม่ว่ากระทรวงกลาโหมจะข่มขู่หรือลงโทษในรูปแบบใด
- ประกาศว่าจะ ยื่นคัดค้านในศาล ต่อการระบุว่าเป็นความเสี่ยงด้านห่วงโซ่อุปทาน
ผลกระทบต่อลูกค้า
- แม้รัฐมนตรี Hegseth จะสื่อว่าการทำธุรกิจกับ Anthropic ของผู้ขายทุกรายที่ค้าขายกับกองทัพจะถูกจำกัด แต่ Anthropic โต้แย้งว่า รัฐมนตรีไม่มีอำนาจทางกฎหมาย ที่รองรับเรื่องนี้
- การระบุว่าเป็นความเสี่ยงด้านห่วงโซ่อุปทานภายใต้ 10 USC 3252 สามารถใช้ได้เฉพาะเมื่อ Claude ถูกใช้เป็นส่วนหนึ่งของงานตามสัญญากับกระทรวงกลาโหม เท่านั้น และไม่อาจกระทบงานให้ลูกค้ารายอื่นของผู้รับจ้างได้
- ขอบเขตผลกระทบที่ชัดเจน:
- กรณีเป็นลูกค้ารายบุคคล หรือมีสัญญาเชิงพาณิชย์กับ Anthropic: การเข้าถึง Claude ผ่าน API, claude.ai เป็นต้น ไม่ได้รับผลกระทบเลย
- กรณีเป็นผู้รับจ้างของกระทรวงกลาโหม: แม้จะมีการบังคับใช้อย่างเป็นทางการ ก็จะ กระทบเฉพาะการใช้ Claude ในงานตามสัญญากับกระทรวงกลาโหมเท่านั้น และไม่กระทบการใช้งานเพื่อวัตถุประสงค์อื่น
ทิศทางต่อไปของ Anthropic
- ตั้งแต่เดือนมิถุนายน 2024 บริษัทได้สนับสนุนทหารสหรัฐมาโดยตลอดในฐานะ บริษัท Frontier AI รายแรกที่นำโมเดลไปใช้งานบนเครือข่ายลับของรัฐบาลสหรัฐ และยังมีความตั้งใจจะทำเช่นนั้นต่อไป
- ภารกิจสำคัญสูงสุดคือการ ป้องกันการหยุดชะงักของบริการลูกค้า จากเหตุการณ์ครั้งนี้ และ สนับสนุนการเปลี่ยนผ่านอย่างราบรื่น สำหรับกองทัพและปฏิบัติการของสหรัฐ
- แสดง ความขอบคุณ ต่อเพื่อนร่วมอุตสาหกรรม ผู้กำหนดนโยบาย ทหารผ่านศึก และประชาชนทั่วไปที่เพิ่งออกมาแสดงการสนับสนุน
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
จุดยืนครั้งนี้ของ Anthropic น่านับถือ มาก
การยอมรับอย่างตรงไปตรงมาว่าเราไม่อาจคาดเดาได้ว่าเทคโนโลยีทรงพลังจะถูกนำไปใช้ในทางที่ผิดอย่างไร เป็นท่าทีที่ มีปัญญาและกล้าหาญ
มัน ชวนให้ย้อนแย้ง ที่ Anthropic หรือ OpenAI เก็บข้อมูลผู้ใช้ราวกับสอดส่องคนทั้งโลก แต่กลับอ่อนไหวอย่างมากกับความเป็นไปได้ที่เรื่องเดียวกันจะเกิดขึ้นภายในประเทศของตน
โดยเฉพาะเมื่อดูจากรายงานที่เกี่ยวข้องกับจีนซึ่งถึงขั้นวิเคราะห์บันทึกการแชตด้วย ก็แทบไม่มี ความเป็นส่วนตัว เหลืออยู่จริง ๆ
หวังว่า Anthropic จะยัง ยืนหยัดต่อไป ได้ในสถานการณ์แบบนี้
ท่าทีแบบนี้ยิ่งทำให้รู้สึกชื่นชอบมากขึ้น
ไม่อยากช่วยให้ “บิ๊กบราเธอร์” มองเห็นได้มากขึ้น
ถ้าผลลัพธ์สุดท้ายคือการเพิ่มการสอดส่อง ก็ถึงเวลาแล้วที่จะต้อง ทบทวนอย่างจริงจัง ว่าควรทำงานนี้ต่อไปหรือไม่
บางทีตอนนี้อาจถึงเวลาคิดหาวิธี ก่อกวนชุดข้อมูลฝึกสอน ของพวกเขาแล้วก็ได้
สงสัยว่า Anthropic คือ บริษัทแรกที่เผชิญหน้าตรง ๆ กับรัฐบาลชุดปัจจุบันหรือเปล่า
ดูคำพิพากษาที่เกี่ยวข้องได้ที่ Learning Resources, Inc. v. Trump
นี่แหละคือ ภาวะผู้นำที่แท้จริง
ต่างจากความเงียบและการ คล้อยตาม ที่เห็นจากบริษัทเทคขนาดใหญ่โดยสิ้นเชิง
แถลงการณ์ครั้งนี้ให้ความรู้สึกเหมือนการพูดอย่างสุภาพว่า “ยิ่งห้ามเหมือนยิ่งยุ”
Anthropic กำลังแสดงให้เห็นถึง การยึดมั่นในหลักการ และถ้ายืนหยัดได้จนถึงที่สุด ก็มีโอกาสสูงที่จะเป็นฝ่ายชนะ
สรุปเนื้อหาของแถลงการณ์
รัฐมนตรี Hegseth พูดว่า “บริษัทที่ทำธุรกิจกับกองทัพจะไม่สามารถทำธุรกิจกับ Anthropic ได้อีก” แต่ ไม่มีฐานทางกฎหมายรองรับ
ตาม 10 USC 3252 การกำหนดให้เป็น ‘ความเสี่ยงด้านซัพพลายเชน’ มีผลเฉพาะกับ การใช้ Claude ในสัญญาของกระทรวงสงคราม เท่านั้น
กล่าวคือ ผู้ใช้ทั่วไปหรือคู่สัญญาเชิงพาณิชย์ ไม่ได้รับผลกระทบใด ๆ ต่อการใช้งาน Claude API หรือ claude.ai
แม้แต่บริษัทอย่าง Google ที่จัดหาทรัพยากรคอมพิวต์ให้ Anthropic ก็อาจได้รับผลกระทบ
ถ้ากฎหมายทำงานอย่างที่ควร ความเสียหายน่าจะจำกัดอยู่บ้าง แต่สุดท้ายก็คงขึ้นอยู่กับว่าฝ่ายบริหารจะเดินเกมหนักแค่ไหน
ส่วนตัวแล้วแทบ ไม่เชื่อมั่นในระบบกฎหมาย เลย มองว่าสุดท้ายเป็นเรื่องของเจตจำนงทางการเมือง
ถ้าเป็นแบบนั้นก็จะเกิดการต่อสู้ในศาล แต่บริษัทส่วนใหญ่คงไม่ยอมรับความเสี่ยงระดับนั้นและ ยอมจำนน ในที่สุด
เหมือนว่าชื่อเรื่องจะไม่ถูกต้อง
จริง ๆ แล้วควรเป็น “ถ้อยแถลงถึงลูกค้าเกี่ยวกับคำพูดของรัฐมนตรีว่าการกระทรวงสงคราม Pete Hegseth”
การตอบโต้แบบนี้อาจยิ่ง ไปกระทบจุดอ่อนของอีกฝ่าย และนำไปสู่ความขัดแย้งเพิ่มเติม