- ทำสัญญากับ กระทรวงกลาโหมสหรัฐ (DoD) เกี่ยวกับการนำระบบ AI ขั้นสูงไปใช้งานในสภาพแวดล้อมลับ และขอให้เงื่อนไขในสัญญานี้ถูกนำไปใช้แบบเดียวกันกับบริษัท AI ทุกแห่ง
- ในข้อตกลงได้ระบุ เส้นแดง 3 ข้อ ว่าจะไม่ใช้เทคโนโลยีของ OpenAI กับ การสอดส่องภายในประเทศในวงกว้าง, การควบคุมระบบอาวุธอัตโนมัติโดยตรง, การตัดสินใจอัตโนมัติความเสี่ยงสูง
- ใช้แนวทาง การติดตั้งใช้งานแบบคลาวด์เท่านั้น โดย OpenAI ยังคงมีอำนาจตัดสินใจเต็มที่เหนือ safety stack และมีบุคลากร OpenAI ที่ผ่านการรับรองด้านความมั่นคงอยู่ในลูป
- อ้างว่ามี guardrail ที่เข้มงวดกว่า สัญญาที่มีอยู่เดิม เช่นของ Anthropic และตัดการติดตั้งบนอุปกรณ์ edge เพื่อปิดช่องการนำไปใช้เฉพาะกับอาวุธอัตโนมัติ
- เน้นความจำเป็นของการสร้าง กรอบความร่วมมือแบบประชาธิปไตย ระหว่างบริษัท AI กับรัฐบาล และขอให้รัฐบาลช่วยคลี่คลายความขัดแย้งกับ Anthropic ด้วย
ที่มาและเป้าหมายของสัญญา
- ได้ทำสัญญากับกระทรวงกลาโหมสหรัฐเกี่ยวกับ การนำระบบ AI ขั้นสูงไปใช้งาน ในสภาพแวดล้อมลับ และขอให้เงื่อนไขเดียวกันนี้ถูกเสนอให้บริษัท AI ทุกแห่งด้วย
- มองว่าเมื่อพิจารณาถึงความสำคัญของเทคโนโลยี AI แล้ว จำเป็นต้องมี ความร่วมมืออย่างลึกซึ้งระหว่างกระบวนการประชาธิปไตยกับการวิจัย AI
- ผู้ที่ทำหน้าที่ปกป้องสหรัฐควรมีเครื่องมือที่ดีที่สุด พร้อมทั้งตระหนักว่าเทคโนโลยีนี้อาจก่อความเสี่ยงใหม่ให้โลกได้ในเวลาเดียวกัน
เส้นแดง 3 ข้อ
- ห้ามใช้เทคโนโลยีของ OpenAI กับ การสอดส่องภายในประเทศในวงกว้าง (mass domestic surveillance)
- ห้ามใช้เทคโนโลยีของ OpenAI ในการควบคุม ระบบอาวุธอัตโนมัติ (autonomous weapons systems) โดยตรง
- ห้ามใช้เทคโนโลยีของ OpenAI กับ การตัดสินใจอัตโนมัติความเสี่ยงสูง (เช่น ระบบเครดิตสังคม)
- ต่างจากห้องแล็บ AI อื่น ๆ ที่ลดทอนหรือลบ safety guardrail ออกและพึ่งพาเพียงนโยบายการใช้งาน OpenAI เห็นว่า แนวทางการป้องกันหลายชั้น มีประสิทธิภาพมากกว่า
องค์ประกอบหลักของสัญญา
-
สถาปัตยกรรมการติดตั้งใช้งาน
- ติดตั้งใช้งานบนคลาวด์เท่านั้น โดยมี safety stack ที่ OpenAI ดำเนินการเองโดยตรง
- จะไม่จัดหาโมเดลที่ถอด guardrail ออก หรือโมเดลที่ไม่ได้ผ่านการฝึกด้านความปลอดภัย
- ตัดการติดตั้งบนอุปกรณ์ edge ออก เพื่อป้องกันความเป็นไปได้ที่จะถูกนำไปใช้กับอาวุธสังหารอัตโนมัติ
- สามารถ ตรวจสอบอย่างอิสระ ได้ว่ามีการละเมิดเส้นแดงหรือไม่ และสามารถรันและอัปเดต classifiers ได้
-
ข้อกำหนดในสัญญา
- กระทรวงกลาโหมสามารถใช้ระบบ AI เพื่อ วัตถุประสงค์ที่ชอบด้วยกฎหมายทั้งหมด ที่สอดคล้องกับกฎหมายที่ใช้บังคับ ข้อกำหนดด้านปฏิบัติการ และโปรโตคอลด้านความปลอดภัยและการกำกับดูแลที่กำหนดไว้
- หากกฎหมาย ระเบียบ หรือ นโยบายของหน่วยงานกำหนดให้ต้องมีการควบคุมโดยมนุษย์ จะ ไม่สามารถใช้เพื่อสั่งการอาวุธอัตโนมัติอย่างอิสระ ได้
- ตาม DoD Directive 3000.09 (ลงวันที่ 25 มกราคม 2023) การใช้ AI ในระบบอัตโนมัติและกึ่งอัตโนมัติจะต้องผ่านการตรวจสอบ การยืนยัน และการทดสอบอย่างเข้มงวดในสภาพแวดล้อมจริงก่อนนำไปใช้งาน
- การจัดการข้อมูลส่วนบุคคลในงานข่าวกรองต้องเป็นไปตาม บทแก้ไขเพิ่มเติมรัฐธรรมนูญครั้งที่ 4, National Security Act (1947), Foreign Intelligence Surveillance Act (1978), Executive Order 12333 และแนวทางที่เกี่ยวข้องของกระทรวงกลาโหม
- ห้าม ติดตามเฝ้าระวังข้อมูลส่วนบุคคลของพลเมืองสหรัฐแบบไม่จำกัด
- สามารถใช้ในงานบังคับใช้กฎหมายภายในประเทศได้เฉพาะในกรณีที่ Posse Comitatus Act และกฎหมายที่เกี่ยวข้องอื่น ๆ อนุญาตเท่านั้น
-
การมีส่วนร่วมของผู้เชี่ยวชาญ AI
- มี วิศวกร OpenAI ที่ผ่านการรับรองด้านความมั่นคงถูกส่งไปสนับสนุนภาครัฐในแนวหน้า
- มี นักวิจัยด้านความปลอดภัยและ alignment ที่ผ่านการรับรองด้านความมั่นคงอยู่ในลูป
ประเด็นสำคัญจาก FAQ
-
เหตุผลที่ทำสัญญา
- กองทัพสหรัฐต้องการ โมเดล AI ที่ทรงพลัง เพื่อรับมือกับภัยคุกคามจากการบูรณาการเทคโนโลยี AI ของประเทศคู่แข่งที่อาจเป็นศัตรู
- ในช่วงแรกเห็นว่า มาตรการและระบบความปลอดภัยสำหรับการติดตั้งใช้งานในสภาพแวดล้อมลับยังไม่พร้อม จึงยังไม่ได้ทำสัญญาทันที และได้เตรียมงานเพื่อให้มั่นใจว่าสามารถรักษาเส้นแดงได้
- การ ถอดมาตรการความปลอดภัยเชิงเทคนิคหลักออก เพื่อเพิ่มประสิทธิภาพในงานด้านความมั่นคงแห่งชาติ ไม่ใช่แนวทางที่ถูกต้อง
- ยังมีเป้าหมายเพื่อลด ความตึงเครียด ระหว่างกระทรวงกลาโหมกับห้องแล็บ AI ของสหรัฐ โดยขอให้รัฐบาลเสนอเงื่อนไขเดียวกันแก่ห้องแล็บ AI ทุกแห่ง และโดยเฉพาะให้ช่วย แก้ปัญหากับ Anthropic
-
เปรียบเทียบกับ Anthropic
- เห็นว่าสัญญาของ OpenAI ให้ หลักประกันที่ดีกว่าและมาตรการความปลอดภัยที่รับผิดชอบมากกว่า สัญญาเดิมของ Anthropic
- การติดตั้งใช้งานบนคลาวด์เท่านั้น (ไม่ใช่ edge), การคง safety stack ของตนเองไว้, และการมีบุคลากร OpenAI ที่ผ่านการรับรองด้านความมั่นคงเข้าร่วม ทำให้เส้นแดง บังคับใช้ได้จริงมากกว่า
- ไม่ทราบว่าเหตุใด Anthropic จึงไม่สามารถทำสัญญานี้ได้ และหวังว่า Anthropic กับห้องแล็บอื่น ๆ จะพิจารณาแนวทางนี้มากขึ้น
-
การกำหนดให้ Anthropic เป็น "ความเสี่ยงในห่วงโซ่อุปทาน" หรือไม่
- คัดค้านการกำหนด Anthropic เป็น "ความเสี่ยงในห่วงโซ่อุปทาน" และได้สื่อสารจุดยืนนี้กับรัฐบาลอย่างชัดเจน
-
ความเป็นไปได้ในการใช้งานกับอาวุธอัตโนมัติ
- จาก safety stack, การติดตั้งใช้งานบนคลาวด์เท่านั้น, ถ้อยคำในสัญญา, รวมถึงกฎหมาย ระเบียบ และนโยบายที่มีอยู่ จึง ไม่สามารถนำไปใช้กับอาวุธอัตโนมัติได้
- บุคลากรของ OpenAI อยู่ในลูปเพื่อให้ หลักประกันเพิ่มเติม
-
ความเป็นไปได้ในการใช้งานกับการสอดส่องในวงกว้าง
- จาก safety stack, ถ้อยคำในสัญญา และกฎหมายที่มีอยู่ซึ่งจำกัดการสอดส่องภายในประเทศของกระทรวงกลาโหมอย่างมาก จึง ไม่สามารถนำไปใช้กับการสอดส่องในวงกว้างได้
-
มีการติดตั้งใช้งานโดยไม่มี safety stack หรือไม่
- OpenAI ยังคงมี อำนาจควบคุม safety stack อย่างสมบูรณ์ และจะไม่ติดตั้งใช้งานโดยไม่มี safety guardrail
- ต่างจากห้องแล็บ AI อื่น ๆ ที่ลดทอน guardrail ของโมเดลและพึ่งพานโยบายการใช้งานเป็นมาตรการหลัก OpenAI เห็นว่า แนวทางหลายชั้น ของตนมีประสิทธิภาพมากกว่า
-
หากรัฐบาลละเมิดสัญญา
- เช่นเดียวกับสัญญาทั่วไป หากอีกฝ่ายละเมิดเงื่อนไข ก็ สามารถยกเลิกสัญญาได้
-
หากกฎหมายหรือนโยบายเปลี่ยนแปลง
- ในสัญญาได้ อ้างอิงอย่างชัดเจนตามมาตรฐานปัจจุบัน ถึงกฎหมายและนโยบายที่เกี่ยวกับการสอดส่องและอาวุธอัตโนมัติ
- แม้ในอนาคตกฎหมายหรือนโยบายจะเปลี่ยนไป การใช้งานระบบก็ยังต้อง สอดคล้องกับมาตรฐานปัจจุบันที่สะท้อนอยู่ในสัญญา
- OpenAI เห็นด้วยกับเส้นแดง 2 ข้อที่ Anthropic เสนอไว้ (การสอดส่องภายในประเทศในวงกว้าง, อาวุธอัตโนมัติเต็มรูปแบบ) และเพิ่มเส้นแดงข้อที่สามคือ การตัดสินใจอัตโนมัติความเสี่ยงสูง
- การสอดส่องภายในประเทศในวงกว้าง: ระหว่างการหารือเป็นที่ชัดเจนว่ากระทรวงกลาโหมถือว่าสิ่งนี้ผิดกฎหมายและไม่ได้วางแผนใช้เพื่อจุดประสงค์ดังกล่าว และในสัญญาได้ ระบุชัด ว่าไม่เข้าข่ายการใช้งานที่ชอบด้วยกฎหมาย
- อาวุธอัตโนมัติเต็มรูปแบบ: ในสภาพแวดล้อมการติดตั้งใช้งานแบบคลาวด์ที่รวมอยู่ในสัญญา ไม่สามารถใช้งานอาวุธอัตโนมัติเต็มรูปแบบได้ เพราะกรณีนั้น ต้องอาศัยการติดตั้งบน edge
- นอกเหนือจากการคุ้มครองเหล่านี้ ยังมี มาตรการความปลอดภัยหลายชั้นเพิ่มเติม คือ safety stack และการมีผู้เชี่ยวชาญเทคโนโลยีของ OpenAI อยู่ในลูป
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
จากการตีความของฉัน สัญญาระหว่าง OpenAI กับกระทรวงกลาโหม ดูเหมือนจะห้ามการสอดแนมชาวอเมริกันในวงกว้าง แต่ความจริงหมายถึงจำกัดไว้แค่ในขอบเขตที่กฎหมายห้ามไว้อยู่แล้ว
กล่าวคือ มันอ่านได้ว่ากระทรวงกลาโหมยังสามารถซื้อข้อมูลจำนวนมากอย่างข้อมูลตำแหน่งหรือธุรกรรมทางการเงินจากบริษัทเอกชน แล้วนำมาวิเคราะห์ด้วยเครื่องมือของ OpenAI ได้
เท่าที่ฉันรู้ สัญญาของ Anthropic ไม่มีเงื่อนไขแบบนี้
ถ้าเป็นเรื่องจริงก็น่ากลัวมาก แต่ช่วงหลังฉันด่วนสรุปผิดมาหลายครั้ง รอบนี้เลยขอชะลอการตัดสินไว้ก่อน
(อ้างอิง ฉันเป็นอดีตพนักงาน OpenAI และปัจจุบันก็ยังเป็นผู้ถือหุ้น)
ต่างจากสมัยที่ยังเป็นองค์กรไม่แสวงกำไร ตอนนี้พวกเขาเปลี่ยนนโยบายความเป็นส่วนตัวไปแล้วถึงสองครั้งเพื่อเก็บข้อมูลของฉันให้มากขึ้น
ขั้นตอนปิดการตั้งค่าก็ซับซ้อน แถมเต็มไปด้วย dark pattern และฟีเจอร์ดาวน์โหลดข้อมูลก็แทบใช้งานไม่ได้จริง
เป็นตัวอย่างชัดเจนของ ‘weasel language’ (ถ้อยคำเลี่ยงประเด็น) ที่ Dario พูดถึง
ถ้าหลักการนี้หายไป สถานการณ์ฝันร้ายแบบนี้ส่วนใหญ่ก็จะหายไปด้วย
สำนวน “Shall not be used as consistent with these authorities” ก็ผิดแปลกแม้ในเชิงไวยากรณ์
ดูเหมือนว่าพวกทนายตั้งใจ เขียนให้กำกวมเพื่อเปิดช่องให้ตีความในทาง PR ได้
ข้อความที่ว่า “The Department of War may use the AI System for all lawful purposes…” สุดท้ายก็หมายความว่า ใช้ได้กับทุกวัตถุประสงค์ตราบใดที่กฎหมายอนุญาต
Anthropic พยายามใช้มาตรฐานทางศีลธรรมของตัวเอง แต่ OpenAI ยอมรับข้อเรียกร้องของรัฐบาลตามนั้นเลย
ส่วนตัวฉันเข้าใจได้ทั้งสองจุดยืน แต่ท่าทีที่รัฐบาลแสดงต่อ Anthropic นั้น มีเจตนาร้ายและเป็นผลเสียต่อผลประโยชน์ของสหรัฐเอง
รัฐบาลทำเรื่องผิดกฎหมายอย่างเปิดเผยอยู่แล้ว และไม่มีใครรู้ว่าเบื้องหลังจะมีอะไรเกิดขึ้นบ้าง
ท้ายที่สุด แก่นของ Anthropic ก็คือ จุดยืนทางศีลธรรมที่ว่าไม่สามารถไว้วางใจรัฐบาลได้
จะเปลี่ยนกฎเองก็ยังได้
Sam Altman อาจจะไร้เดียงสา หรือไม่ก็ทำให้เราคิดว่าเขาเป็นแบบนั้น
นั่นคือ อาชญากรรมสงคราม อย่างชัดเจน แล้วใครจะเป็นคนตัดสิน “ความชอบด้วยกฎหมาย” OpenAI, รัฐมนตรีกลาโหม หรือผู้พิพากษา?
คำว่า “เพื่อวัตถุประสงค์ใด ๆ ที่กฎหมายอนุญาต” หมายความว่า ผู้ที่ออกกฎหมายไม่ได้กำลังจำกัดตัวเองเลย
แต่ถ้ารู้ว่าเป็นสิ่งผิดกฎหมายแล้วยังช่วยรัฐบาล ก็อาจเข้าข่าย สมคบคิดกระทำความผิด รัฐบาลอาจได้รับความคุ้มกัน แต่ OpenAI อาจไม่ได้รับ
ฉันไม่คิดว่า Anthropic เป็นพวก คนดีมีศีลธรรมสมบูรณ์แบบ
ChatGPT ก็เหมือนกัน
แต่ ณ ตอนนี้ การยกเลิก ChatGPT แล้วไปใช้ Claude เป็นการกระทำที่แสดงข้อความที่ฉันอยากสื่อ
ถ้าผู้ใช้พร้อมจะจากไปทันทีเมื่อเกิดประเด็น บริษัทต่าง ๆ ก็จะระวังตัวมากขึ้น
การที่ Anthropic ไม่ยอมอ่อนข้อในครั้งนี้ถือว่าน่าประทับใจมาก
แม้ GPU จะยังขาดแคลน แต่ฉันก็วางแผนจะเลิกใช้ ChatGPT แล้วย้ายไป Claude หรือ Kimi
ท้ายที่สุด ต่อให้พนักงานมีจุดยืนทางศีลธรรม ถ้า ไม่มีอำนาจตัดสินใจ มันก็ไม่มีความหมาย
อำนาจเดียวคือ ‘ลาออก’
ถ้าวิศวกรหลักหยุดงานพร้อมกัน Sam Altman คนเดียวก็ไม่สามารถประคองบริษัทไว้ได้
OpenAI กำลัง หลีกเลี่ยงความรับผิดชอบทางศีลธรรม ด้วยแนวคิดประมาณว่า “ให้กฎหมายรับหน้าที่เรื่องความรับผิดชอบทางศีลธรรมของ AI ก็แล้วกัน”
ถ้ายังมีพนักงาน OpenAI ที่มีทรัพย์สินสุทธิเกิน 2 ล้านดอลลาร์แล้วยังอยู่ต่อ ก็แปลว่า เข็มทิศทางศีลธรรมพังไปแล้ว
ตอนนี้ไม่ต่างอะไรจากการไปทำงานที่ Palantir หรือ xAI
ถ้อยคำที่ว่า “สามารถใช้เพื่อทุกวัตถุประสงค์ที่ถูกกฎหมาย” สุดท้ายหมายความว่า กระทรวงกลาโหมได้สิ่งที่ต้องการจากกฎกำกับดูแลที่อ่อนแออยู่แล้ว
โพสต์บล็อกนี้ยิ่งทำให้สถานการณ์ดูแย่ลง
มันไม่ได้ขีดเส้นชัดเจนต่อ การใช้งานที่ก่อข้อถกเถียง ซึ่ง Anthropic เคยปฏิเสธ
แค่บอกว่า “ทำได้เฉพาะกรณีที่ถูกกฎหมายและผ่านการทดสอบแล้ว” เท่านั้น
ให้ความรู้สึกเหมือน IBM ในเยอรมนียุคทศวรรษ 1930 ที่ขายเครื่องจักรแล้วบอกว่า “เราไม่รู้”
สุดท้ายสิ่งที่กองทัพต้องการก็คือ อาวุธอัตโนมัติและการสอดแนมวงกว้าง รวมถึงการใช้งานอื่น ๆ ที่แม้จะถูกกฎหมาย แต่ก็ยังอยู่ใน พื้นที่สีเทาทางศีลธรรม