- OpenAI ได้ทำ สัญญาสำหรับการติดตั้งระบบ AI ขั้นสูงในสภาพแวดล้อมลับกับ Department of War และได้ขอให้มีการใช้เงื่อนไขนี้อย่างเท่าเทียมกับบริษัท AI ทุกแห่ง
- ระบุว่าสัญญาดังกล่าวมี ราวกั้นด้านความปลอดภัยมากกว่าเดิม เมื่อเทียบกับการติดตั้ง AI แบบลับก่อนหน้านี้
- กำหนดเส้นแดงไว้อย่างชัดเจนว่าจะไม่ใช้เทคโนโลยีของ OpenAI กับ การสอดส่องภายในประเทศในวงกว้าง, การควบคุมอาวุธอัตโนมัติ, การตัดสินใจอัตโนมัติความเสี่ยงสูง
- คงอำนาจตัดสินใจเต็มรูปแบบเหนือสแตกความปลอดภัย, การติดตั้งแบบคลาวด์, การมีส่วนร่วมของบุคลากรที่ได้รับการรับรองด้านความมั่นคง, และการใช้มาตรการคุ้มครองตามสัญญาที่เข้มงวด
- ยืนยันจุดยืนต่อ Department of War อย่างชัดเจนว่า ไม่ควรกำหนดให้ Anthropic เป็นความเสี่ยงด้านซัพพลายเชน
การทำสัญญากับ Department of War
- OpenAI ได้ทำ สัญญาเพื่อติดตั้งระบบ AI ขั้นสูงในสภาพแวดล้อมลับกับ Department of War
- และขอให้การติดตั้งลักษณะนี้เปิดให้กับบริษัท AI ทุกแห่งอย่างเท่าเทียม
- สัญญาครั้งนี้มี มาตรการความปลอดภัยมากกว่าเดิม เมื่อเทียบกับสัญญาติดตั้ง AI แบบลับที่ผ่านมา
การคงไว้ซึ่งเส้นแดง
- จะไม่ใช้เทคโนโลยีของ OpenAI กับ การสอดส่องภายในประเทศในวงกว้าง
- จะไม่ใช้เทคโนโลยีของ OpenAI กับ การควบคุมระบบอาวุธอัตโนมัติ
- จะไม่ใช้เทคโนโลยีของ OpenAI กับ ระบบตัดสินใจอัตโนมัติความเสี่ยงสูง (เช่น social credit)
โครงสร้างการคุ้มครองความปลอดภัยแบบหลายชั้น
- ตรงกันข้ามกับบางห้องปฏิบัติการ AI ที่ลดทอนหรือถอดการคุ้มครองด้านความมั่นคงแห่งชาติให้เหลือเพียง การคุ้มครองที่ยึดตามนโยบายการใช้งาน
- OpenAI ใช้ แนวทางแบบหลายชั้นที่ขยายเพิ่ม
- คงอำนาจตัดสินใจเต็มรูปแบบเหนือสแตกความปลอดภัย
- คงรูปแบบการติดตั้งบนคลาวด์
- ใช้โครงสร้างที่ให้บุคลากร OpenAI ซึ่งได้รับการรับรองด้านความมั่นคงเข้ามามีส่วนร่วม
- รวมมาตรการคุ้มครองตามสัญญาที่เข้มงวด
- ดำเนินควบคู่กับมาตรการคุ้มครองตามกฎหมายสหรัฐฯ ที่มีอยู่เดิม
จุดยืนต่อ Anthropic
- แสดงจุดยืน คัดค้านการกำหนดให้ Anthropic เป็นความเสี่ยงด้านซัพพลายเชน
- ได้สื่อสารจุดยืนดังกล่าวต่อ Department of War อย่างชัดเจน
5 ความคิดเห็น
ดูเหมือนว่าน่าจะต้องมีการสรุปไทม์ไลน์ของประเด็นที่เกี่ยวข้องนี้นะครับ เห็นว่ามีคำพูดด้วยว่า OpenAI กำลังอยู่ระหว่างการเจรจาสัญญาไม่ใช่หรือ?
นี่น่าจะเป็นครั้งแรกที่สรุปผิดว่าไม่มีเนื้อหานะ..
ดูเหมือนว่าจะมีกรณีแบบนั้นเกิดขึ้น เพราะ x ค่อนข้างลำบากในการครอลข้อมูล เราจะลองปรับปรุงดูครับ
ติดตามอ่านอยู่เสมอ ขอบคุณครับ
ความเห็นจาก Hacker News
ประเด็นสำคัญคือ ความแตกต่างระหว่างถ้อยคำจริงในสัญญา OpenAI กับสิ่งที่ Altman พูด
ในสัญญาระบุว่า “จะไม่ใช้เพื่อปฏิบัติการอาวุธอัตโนมัติในกรณีที่กฎหมายหรือนโยบายกำหนดให้ต้องมีการควบคุมโดยมนุษย์”
นั่นหมายความว่า หากกระทรวงกลาโหมตัดสินว่า “ไม่จำเป็นต้องมีการควบคุมโดยมนุษย์” ก็ทำได้ทันที
Anthropic วาง เส้นห้ามแบบเด็ดขาด ว่า “ห้ามการเฝ้าระวังในวงกว้างโดยเด็ดขาด” แต่ OpenAI ผ่อนให้เป็นแนว “ถ้ากฎหมายอนุญาตก็ทำได้”
การทำสัญญาแบบนั้นแล้วมาทำเหมือนปกป้อง Anthropic ดูเหมือนเป็น การแสดง PR ที่หาได้ยากในวงการ
ใน เธรด X OpenAI อ้างว่า “สัญญากับกระทรวงกลาโหมยังคงรักษา redline ของเราไว้”
แต่ตาม บทความของ NPR ระบุว่า Anthropic ถูกกันออกจากสัญญาเพราะยึดมาตรฐานเดียวกันนั้น ขณะที่ OpenAI รับเงินไป
เลยได้สัญญาไป
แต่ก็ยังน่าสงสัยว่า guardrail จะหยุดการเฝ้าระวังพลเรือนได้จริงหรือไม่
ปัญหาของข้อกำหนด “Any Lawful Use” คือกระทรวงกลาโหมสามารถนิยามคำว่า ‘ชอบด้วยกฎหมาย’ ได้ตามใจ
แค่ทนายภายในเขียนบันทึกไว้ฉบับหนึ่ง มันก็กลายเป็นสิ่งที่ถูกกฎหมายทันที
การใช้อำนาจรัฐเกินขอบเขตต้องแก้ด้วย การลงคะแนนเสียงและการปฏิรูประบบ
ระบบไม่ได้ถูกออกแบบมาให้เป็นแบบนั้น แต่ความจริงกลับต่างออกไป
สุดท้าย “Department of War” ที่เปลี่ยนชื่อใหม่ก็คงแค่ผลาญภาษี แล้วซื้อเทคโนโลยีไร้ประโยชน์ในราคาสูง
รู้สึกเห็นใจประชาชน
ความต่างระหว่าง Anthropic กับ OpenAI คือ Anthropic พยายาม บังคับใช้ข้อจำกัดทางเทคนิค ขณะที่ OpenAI แค่ สัญญาด้วยคำพูด ว่า “หวังว่ารัฐบาลจะไม่ฝ่าฝืน”
จึงไม่แปลกที่รัฐบาลจะเลือกอย่างหลัง
หรือก็คือเปิดช่องว่า “ถ้าถูกกฎหมาย ก็อาจใช้เพื่อการเฝ้าระวังในวงกว้างหรืออาวุธสังหารอัตโนมัติได้”
AI ที่ตัดสินใจสังหารแบบอัตโนมัติ เป็นแนวคิดที่อันตรายอย่างยิ่ง
ไม่ใช่แค่เพราะซูเปอร์อินเทลลิเจนซ์ แต่เพราะแม้แต่โมเดลขนาดเล็กก็อาจทำให้ใครก็ตามสร้าง อาวุธที่ติดตามไม่ได้ ได้
โมเดลในปัจจุบันถูกฝึกให้มีทัศนคติเชิงบวกต่อชีวิตมนุษย์ แต่ถ้าเอาสิ่งนั้นออกไป มันก็จะกลายเป็น ระบบประหลาดราวสัตว์ประหลาด
มันเป็นเพียง ตัวทำนายโทเค็นเชิงความน่าจะเป็น เท่านั้น
ตัวอย่างเช่น โปรแกรมสร้างรายชื่อเป้าหมายสังหาร แล้วมนุษย์เป็นผู้บังคับโดรน
ดูเหมือนหลายคนจะลืมไปว่า Anthropic เคย ร่วมมือกับ Palantir
พอเรื่องนั้นถูกเปิดเผยก็แค่ใช้ PR กลบ
ดูเหมือน OpenAI กำลังเสียลูกค้าจากประเด็นนี้อยู่ จึงลง โพสต์เพื่อจัดการภาพลักษณ์
Anthropic ต้องการให้รัฐ คุมเข้มกฎระเบียบ AI มากขึ้น แต่สุดท้ายก็เหมือนต้องมาเผชิญผลจากสิ่งนั้นเอง
เรื่องนี้ดูเหมือนเป็นการที่ OpenAI ตอบโต้ด้วย PR เพราะตระหนักถึง คำวิจารณ์ว่าเกณฑ์จริยธรรมอ่อนแอ
นอกประเทศก็ยังเปิดช่องให้ใช้งานอย่างไร้จริยธรรมได้อยู่ดี