- ยกเว้นออกจากสัญญา 2 ด้าน ได้แก่ การเฝ้าระวังภายในประเทศในวงกว้าง และ อาวุธอัตโนมัติเต็มรูปแบบ
- Anthropic ยึดถือ การใช้ AI เพื่อปกป้องสหรัฐฯ และประเทศประชาธิปไตย เป็นพันธกิจหลัก และกำลังร่วมมือกับกระทรวงกลาโหมและหน่วยงานข่าวกรองเพื่อเป้าหมายนี้
- โมเดล Claude ถูกใช้งานใน เครือข่ายลับ, ห้องปฏิบัติการแห่งชาติ, หน่วยงานความมั่นคงแห่งชาติ สำหรับภารกิจอย่างการวิเคราะห์ข่าวกรอง การวางแผนปฏิบัติการ และปฏิบัติการไซเบอร์
- บริษัทปกป้องความได้เปรียบด้าน AI ของสหรัฐฯ ผ่านมาตรการอย่าง ยุติการทำธุรกิจกับบริษัทที่เกี่ยวข้องกับพรรคคอมมิวนิสต์จีน, สกัดกั้นการโจมตีไซเบอร์ที่ใช้ AI ในทางที่ผิด, และ สนับสนุนการเข้มงวดการควบคุมการส่งออกเซมิคอนดักเตอร์
- อย่างไรก็ตาม บริษัทระบุอย่างชัดเจนว่าไม่สามารถนำ AI ไปใช้ใน 2 ด้าน ได้แก่ การเฝ้าระวังภายในประเทศในวงกว้าง และ อาวุธอัตโนมัติเต็มรูปแบบ เนื่องจากประเด็นเรื่องคุณค่าประชาธิปไตยและความน่าเชื่อถือของเทคโนโลยี
- Anthropic ยังคงยืนหยัดรักษา มาตรการป้องกันทั้งสองข้อนี้ แม้เผชิญแรงกดดันจากกระทรวงกลาโหม และหวังจะสานต่อความร่วมมือต่อไป
ความร่วมมือด้านกลาโหมและการนำ AI ไปใช้งานของ Anthropic
- Anthropic เป็นบริษัทผู้นำที่นำโมเดล AI ไปใช้งานใน เครือข่ายลับของรัฐบาลสหรัฐฯ เป็นรายแรก
- และยังเป็นรายแรกที่จัดหา โมเดลแบบปรับแต่งเฉพาะ สำหรับห้องปฏิบัติการแห่งชาติและลูกค้าด้านความมั่นคงแห่งชาติ
- โมเดล Claude ถูกใช้งานในกระทรวงกลาโหมและหน่วยงานด้านความมั่นคงหลายแห่งสำหรับ การวิเคราะห์ข่าวกรอง, การทำโมเดลและการจำลอง, การวางแผนปฏิบัติการ, ปฏิบัติการไซเบอร์
- บริษัทนำเสนอตัวอย่างที่แสดงให้เห็นว่าได้ยอมเสียผลประโยชน์ระยะสั้นเพื่อ รักษาความได้เปรียบทางเทคโนโลยี AI ของสหรัฐฯ
- ยุติการทำธุรกิจกับบริษัทที่เกี่ยวข้องกับพรรคคอมมิวนิสต์จีน ทำให้สละรายได้มูลค่าหลายร้อยล้านดอลลาร์
- สกัดกั้น การโจมตีไซเบอร์จากจีน ที่นำ Claude ไปใช้ในทางที่ผิด
- สนับสนุน การเข้มงวดการควบคุมการส่งออกเซมิคอนดักเตอร์ เพื่อรักษาความได้เปรียบทางเทคโนโลยีของฝ่ายประชาธิปไตย
ข้อยกเว้น 2 ประการตามคุณค่าประชาธิปไตยและความน่าเชื่อถือของเทคโนโลยี
- Anthropic ระบุอย่างชัดเจนว่ายกเว้น กรณีการใช้งาน 2 แบบ ที่อาจบั่นทอนคุณค่าประชาธิปไตย
- การเฝ้าระวังภายในประเทศในวงกว้าง: แม้จะสนับสนุนกิจกรรมข่าวกรองในต่างประเทศที่ถูกกฎหมาย แต่การเฝ้าระวังประชาชนภายในประเทศในวงกว้างขัดต่อหลักการประชาธิปไตย
- การเฝ้าระวังที่อาศัย AI สามารถรวมข้อมูลการเคลื่อนไหว การใช้งานเว็บ และความสัมพันธ์ทางสังคมของบุคคลแบบอัตโนมัติ ทำให้เกิด การทำโปรไฟล์บุคคลในวงกว้าง
- ปัจจุบันกฎหมายยังตามไม่ทันความก้าวหน้าทางเทคโนโลยี ทำให้การเฝ้าระวังบางรูปแบบยังคงถูกกฎหมายอยู่
- อาวุธอัตโนมัติเต็มรูปแบบ: อาวุธที่ระบุและโจมตีเป้าหมายโดยไม่มีมนุษย์แทรกแซงยัง ขาดความน่าเชื่อถือ เมื่อเทียบกับเทคโนโลยีปัจจุบัน
- Anthropic ไม่ได้จัดหาผลิตภัณฑ์สำหรับอาวุธลักษณะนี้
- บริษัทเคยเสนอ ความร่วมมือวิจัยกับกระทรวงกลาโหมเพื่อเพิ่มความน่าเชื่อถือ แต่ไม่ได้รับการตอบรับ
- บริษัทระบุชัดว่าในเวลานี้ยังไม่สามารถนำไปใช้งานจริงได้ เนื่องจากขาด การกำกับดูแลและมาตรการป้องกันที่เหมาะสม
ข้อเรียกร้องของกระทรวงกลาโหมและการตอบสนองของ Anthropic
- กระทรวงกลาโหมเรียกร้องให้บริษัท AI “ยอมรับการใช้งานที่ถูกกฎหมายทั้งหมด” และถอดมาตรการป้องกันทั้งสองข้อนี้ออก
- พร้อมเตือนว่าหากปฏิเสธ อาจกำหนดให้ Anthropic เป็น ความเสี่ยงต่อห่วงโซ่อุปทาน (supply chain risk) หรือใช้อำนาจตาม กฎหมายการผลิตเพื่อการป้องกันประเทศ (Defense Production Act) เพื่อบังคับ
- มาตรการทั้งสองมีลักษณะขัดแย้งกัน โดยมาตรการหนึ่งมองบริษัทเป็นภัยด้านความมั่นคง ขณะที่อีกมาตรการหนึ่งมองว่าเป็นเทคโนโลยีจำเป็นต่อความมั่นคงแห่งชาติ
- แม้เผชิญแรงกดดันดังกล่าว Anthropic ก็ยัง ประกาศอย่างชัดเจนว่าไม่อาจยอมรับข้อเรียกร้องนี้ได้ด้วยเหตุผลทางมโนธรรม
- บริษัทรับว่ากระทรวงกลาโหมมีสิทธิเลือกผู้รับจ้างรายอื่น แต่ก็ยัง หวังจะร่วมมือต่อไปโดยคงมาตรการป้องกันทั้งสองไว้
- หากสัญญาสิ้นสุดลง บริษัทก็ให้คำมั่นว่าจะ สนับสนุนการเปลี่ยนผ่านอย่างราบรื่น เพื่อไม่ให้การปฏิบัติการหรือการวางแผนทางทหารสะดุด
ท่าทีในระยะต่อไป
- Anthropic ยืนยันอีกครั้งถึง ความตั้งใจในการสนับสนุนความมั่นคงแห่งชาติของสหรัฐฯ
- บริษัทต้องการสานต่อความร่วมมือกับกระทรวงกลาโหม แต่ยังคงยืนกรานว่าจะไม่ประนีประนอมต่อ หลักคุณค่าประชาธิปไตยและความปลอดภัยของเทคโนโลยี
1 ความคิดเห็น
ความเห็นจาก Hacker News
ส่วนที่หนักแน่นที่สุดในบทความคือช่วงที่รัฐบาล บังคับให้ Anthropic ถอดมาตรการความปลอดภัยออก พร้อมกับขู่ว่าจะจัดพวกเขาเป็น ‘ความเสี่ยงต่อซัพพลายเชน’
ด้านหนึ่งก็บอกว่าจำเป็นต่อความมั่นคงแห่งชาติ แต่อีกด้านกลับเรียกว่าเป็นความเสี่ยง ท่าทีแบบนี้ขัดแย้งกันเอง
สิ่งที่น่าประทับใจคือ Anthropic ตอบกลับว่า “ถ้าอย่างนั้นรัฐบาลก็ไม่ต้องใช้บริการของเรา” นี่เป็นกลยุทธ์ด้านการสื่อสาร แต่ก็เท่ากับโยนบอลกลับไปให้ฝ่ายบริหาร
ฉันเคยทำงานที่ Anthropic มาก่อน และมีคอมเมนต์ที่ฉันเขียนเกี่ยวกับการอัปเดต RSP ครั้งนี้
มันน่าประทับใจที่ได้เห็นผู้นำของ Anthropic ยอมเสี่ยงเสียตำแหน่งหรือโอกาสเพื่อยึดมั่นในคุณค่า
คนอย่าง Dario, Jared, Sam จริงจังมากพอที่จะยอมรับผลเสียหากต้องทำในสิ่งที่ขัดกับความเชื่อของตัวเอง
แน่นอนว่าไม่ใช่บริษัทที่สมบูรณ์แบบ แต่คนที่ตัดสินใจเรื่องสำคัญส่วนใหญ่ขับเคลื่อนด้วยความหวังดีและคุณค่าที่ตนยึดถือ
ตอนอ่านบทความ ฉันสะดุดกับประโยคที่ว่า “AI ในปัจจุบันยังไม่น่าเชื่อถือพอที่จะขับเคลื่อนอาวุธอัตโนมัติเต็มรูปแบบ”
นั่นฟังเหมือน เปิดช่องว่าถ้าเชื่อถือได้มากพอ ก็ใช้อาวุธอัตโนมัติได้
อีกทั้งยังวิจารณ์แค่ ‘การสอดส่องภายในประเทศในวงกว้าง’ แต่ไม่ได้ปฏิเสธ ‘การสอดส่องแบบกึ่งอัตโนมัติ’ หรือ ‘การสอดส่องในต่างประเทศ’ ซึ่งน่าผิดหวัง
ฉันเคยคิดว่าชื่อ ‘Anthropic’ หมายถึงการทำเพื่อมวลมนุษยชาติ แต่สุดท้ายกลับดูเป็นกรอบคิดแบบ ‘พวกเรา vs พวกคุณ’
คล้ายกับที่ OpenAI เรียกตัวเองว่า ‘เปิด’ หรือ เกาหลีเหนือเรียกตัวเองว่า ‘สาธารณรัฐประชาชน’ ชื่อกับความจริงอาจไม่ตรงกัน
ทำให้นึกถึงหน้าล้อเลียน People’s Republic of Tyranny
สิ่งที่ Anthropic พูดมีแค่ว่า “ตอนนี้ยังทำไม่ได้” เท่านั้น ภายหน้ามีโอกาสสูงที่ข้อจำกัดจะถูกผ่อนคลาย
ฮาร์ดแวร์หรือซอฟต์แวร์ทั่วไปเองก็มีขีดจำกัดด้านความน่าเชื่อถือ ดังนั้นในตัวมันเองก็ไม่ได้ไร้เหตุผล
ธรรมชาติที่แท้จริงขององค์กรจะเผยออกมาเมื่อ คุณค่ากับผลประโยชน์ขัดกัน
การที่ Anthropic พยายามยืนหยัดตามหลักการเป็นเรื่องน่าประทับใจ บริษัทส่วนใหญ่คงตัดสินใจแบบนี้ไม่ได้
การพึ่งพาระบบที่เลวร้ายด้วยเหตุผลทางศีลธรรม สุดท้ายระยะยาวย่อมล้มเหลว
เราต้องมี กลไกยับยั้งที่แข็งแรง ต่อพฤติกรรมแย่ ๆ แต่ก็ดูเหมือนจะสายไปแล้ว
อ่านบทความนี้แล้วหดหู่มาก ฉันไม่รู้ว่าสหรัฐฯ กำลังมุ่งหน้าไปทางไหน
หวังว่าการเลือกตั้งครั้งหน้าจะได้ ผู้นำที่มีเหตุมีผล
ฉันอาศัยอยู่ในซานฟรานซิสโก ครูต้องใช้ GoFundMe เพื่อซื้ออุปกรณ์การเรียน แต่เมืองกลับใช้เงิน 36 ล้านดอลลาร์ไปกับการเอา RV ออกจากพื้นที่
ดูบทความนี้แล้วจะเห็นว่าความเป็นจริงมันบิดเบี้ยวแค่ไหน
รากของทุกปัญหาคือ สภาคองเกรสโอนอำนาจให้ฝ่ายบริหาร
กองทัพต้องถูกควบคุมโดยกฎหมาย และมีเพียงการเคลื่อนไหวของพลเมืองเท่านั้นที่จะเปลี่ยนสิ่งนี้ได้
การที่บริษัทมาเป็นตัวกำหนดพฤติกรรมของกองทัพเป็นเรื่องเหลวไหล เทคโนโลยีสามารถถูก เกณฑ์ไปใช้ ได้ทุกเมื่อ และบริษัทก็หยุดมันไม่ได้
การที่ CEO ถูกยกให้เป็นฮีโร่จากเรื่องแบบนี้ แสดงให้เห็นว่าการรับรู้ความจริงบิดเบี้ยวแค่ไหน
ตอนแรกฉันผิดหวังที่ Anthropic ซึ่งชูภาพลักษณ์ว่าเป็น “AI เพื่อมนุษยชาติ” กลับ ขายสิทธิ์การเข้าถึงก่อนใครให้เพนตากอน
แต่ก็พอเข้าใจตรรกะที่ว่า ถ้ายังไงก็ต้องมีใครสักคนร่วมมือกับกลุ่มอุตสาหกรรมทหาร อย่างน้อย ก็ควรเป็นฝ่ายที่มีมาตรฐานทางศีลธรรมสูงที่สุด
ท้ายที่สุดแล้วบริษัทก็มีอยู่เพื่อแสวงหากำไร
ตราบใดที่ยังมีนักลงทุนและผู้ถือหุ้น ความอยู่รอดย่อมมาก่อนศีลธรรม
ความเป็นอิสระที่แท้จริงจะเกิดขึ้นได้ก็ต่อเมื่ออยู่ใน โครงสร้างที่ไม่พึ่งพากำไร เท่านั้น
ฉันเป็นสมาชิก Claude Max และจากเรื่องนี้ก็รู้สึกภูมิใจที่ Anthropic ไม่ยอมสยบต่ออำนาจ
หวังว่าบริษัทอื่นจะได้ความกล้าจากเรื่องนี้เช่นกัน
การใช้คำว่า ‘Department of War’ ตรง ๆ ก็เป็นเพียงเพราะ สภาคองเกรสไม่ได้เปลี่ยนชื่อมันเท่านั้น นอกนั้นถือว่าเป็นการใช้ถ้อยคำที่โอเค
เรามักใช้ถ้อยคำอ้อมค้อมกับทุกอย่าง จนทำให้มองความจริงไม่ชัด
ฉันชื่นชมที่ Dario และ Anthropic เลือกยืนในจุดยืนทางศีลธรรม ซึ่งหาได้ยากมากในวงการเทคทุกวันนี้
การที่ Dario ไม่ทำตัวเหมือน Sam Altman หรือ Sundar Pichai ถือว่าน่ายกย่อง
และในความเป็นจริง Anthropic ก็ได้ ปล่อยโมเดลให้หน่วยงานกลาโหมและข่าวกรองใช้งาน ไปแล้ว
เพราะท้ายที่สุดต่อหน้าสัญญารัฐบาลมูลค่าหลายหมื่นล้านดอลลาร์ ก็ไม่มีบริษัทไหนจะบริสุทธิ์ได้จริง