3 คะแนน โดย GN⁺ 2026-03-02 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • ทำสัญญากับ กระทรวงกลาโหมสหรัฐ (DoD) เกี่ยวกับการนำระบบ AI ขั้นสูงไปใช้งานในสภาพแวดล้อมลับ และขอให้เงื่อนไขในสัญญานี้ถูกนำไปใช้แบบเดียวกันกับบริษัท AI ทุกแห่ง
  • ในข้อตกลงได้ระบุ เส้นแดง 3 ข้อ ว่าจะไม่ใช้เทคโนโลยีของ OpenAI กับ การสอดส่องภายในประเทศในวงกว้าง, การควบคุมระบบอาวุธอัตโนมัติโดยตรง, การตัดสินใจอัตโนมัติความเสี่ยงสูง
  • ใช้แนวทาง การติดตั้งใช้งานแบบคลาวด์เท่านั้น โดย OpenAI ยังคงมีอำนาจตัดสินใจเต็มที่เหนือ safety stack และมีบุคลากร OpenAI ที่ผ่านการรับรองด้านความมั่นคงอยู่ในลูป
  • อ้างว่ามี guardrail ที่เข้มงวดกว่า สัญญาที่มีอยู่เดิม เช่นของ Anthropic และตัดการติดตั้งบนอุปกรณ์ edge เพื่อปิดช่องการนำไปใช้เฉพาะกับอาวุธอัตโนมัติ
  • เน้นความจำเป็นของการสร้าง กรอบความร่วมมือแบบประชาธิปไตย ระหว่างบริษัท AI กับรัฐบาล และขอให้รัฐบาลช่วยคลี่คลายความขัดแย้งกับ Anthropic ด้วย

ที่มาและเป้าหมายของสัญญา

  • ได้ทำสัญญากับกระทรวงกลาโหมสหรัฐเกี่ยวกับ การนำระบบ AI ขั้นสูงไปใช้งาน ในสภาพแวดล้อมลับ และขอให้เงื่อนไขเดียวกันนี้ถูกเสนอให้บริษัท AI ทุกแห่งด้วย
  • มองว่าเมื่อพิจารณาถึงความสำคัญของเทคโนโลยี AI แล้ว จำเป็นต้องมี ความร่วมมืออย่างลึกซึ้งระหว่างกระบวนการประชาธิปไตยกับการวิจัย AI
  • ผู้ที่ทำหน้าที่ปกป้องสหรัฐควรมีเครื่องมือที่ดีที่สุด พร้อมทั้งตระหนักว่าเทคโนโลยีนี้อาจก่อความเสี่ยงใหม่ให้โลกได้ในเวลาเดียวกัน

เส้นแดง 3 ข้อ

  • ห้ามใช้เทคโนโลยีของ OpenAI กับ การสอดส่องภายในประเทศในวงกว้าง (mass domestic surveillance)
  • ห้ามใช้เทคโนโลยีของ OpenAI ในการควบคุม ระบบอาวุธอัตโนมัติ (autonomous weapons systems) โดยตรง
  • ห้ามใช้เทคโนโลยีของ OpenAI กับ การตัดสินใจอัตโนมัติความเสี่ยงสูง (เช่น ระบบเครดิตสังคม)
  • ต่างจากห้องแล็บ AI อื่น ๆ ที่ลดทอนหรือลบ safety guardrail ออกและพึ่งพาเพียงนโยบายการใช้งาน OpenAI เห็นว่า แนวทางการป้องกันหลายชั้น มีประสิทธิภาพมากกว่า

องค์ประกอบหลักของสัญญา

  • สถาปัตยกรรมการติดตั้งใช้งาน

    • ติดตั้งใช้งานบนคลาวด์เท่านั้น โดยมี safety stack ที่ OpenAI ดำเนินการเองโดยตรง
    • จะไม่จัดหาโมเดลที่ถอด guardrail ออก หรือโมเดลที่ไม่ได้ผ่านการฝึกด้านความปลอดภัย
    • ตัดการติดตั้งบนอุปกรณ์ edge ออก เพื่อป้องกันความเป็นไปได้ที่จะถูกนำไปใช้กับอาวุธสังหารอัตโนมัติ
    • สามารถ ตรวจสอบอย่างอิสระ ได้ว่ามีการละเมิดเส้นแดงหรือไม่ และสามารถรันและอัปเดต classifiers ได้
  • ข้อกำหนดในสัญญา

    • กระทรวงกลาโหมสามารถใช้ระบบ AI เพื่อ วัตถุประสงค์ที่ชอบด้วยกฎหมายทั้งหมด ที่สอดคล้องกับกฎหมายที่ใช้บังคับ ข้อกำหนดด้านปฏิบัติการ และโปรโตคอลด้านความปลอดภัยและการกำกับดูแลที่กำหนดไว้
    • หากกฎหมาย ระเบียบ หรือ นโยบายของหน่วยงานกำหนดให้ต้องมีการควบคุมโดยมนุษย์ จะ ไม่สามารถใช้เพื่อสั่งการอาวุธอัตโนมัติอย่างอิสระ ได้
    • ตาม DoD Directive 3000.09 (ลงวันที่ 25 มกราคม 2023) การใช้ AI ในระบบอัตโนมัติและกึ่งอัตโนมัติจะต้องผ่านการตรวจสอบ การยืนยัน และการทดสอบอย่างเข้มงวดในสภาพแวดล้อมจริงก่อนนำไปใช้งาน
    • การจัดการข้อมูลส่วนบุคคลในงานข่าวกรองต้องเป็นไปตาม บทแก้ไขเพิ่มเติมรัฐธรรมนูญครั้งที่ 4, National Security Act (1947), Foreign Intelligence Surveillance Act (1978), Executive Order 12333 และแนวทางที่เกี่ยวข้องของกระทรวงกลาโหม
    • ห้าม ติดตามเฝ้าระวังข้อมูลส่วนบุคคลของพลเมืองสหรัฐแบบไม่จำกัด
    • สามารถใช้ในงานบังคับใช้กฎหมายภายในประเทศได้เฉพาะในกรณีที่ Posse Comitatus Act และกฎหมายที่เกี่ยวข้องอื่น ๆ อนุญาตเท่านั้น
  • การมีส่วนร่วมของผู้เชี่ยวชาญ AI

    • มี วิศวกร OpenAI ที่ผ่านการรับรองด้านความมั่นคงถูกส่งไปสนับสนุนภาครัฐในแนวหน้า
    • มี นักวิจัยด้านความปลอดภัยและ alignment ที่ผ่านการรับรองด้านความมั่นคงอยู่ในลูป

ประเด็นสำคัญจาก FAQ

  • เหตุผลที่ทำสัญญา

    • กองทัพสหรัฐต้องการ โมเดล AI ที่ทรงพลัง เพื่อรับมือกับภัยคุกคามจากการบูรณาการเทคโนโลยี AI ของประเทศคู่แข่งที่อาจเป็นศัตรู
    • ในช่วงแรกเห็นว่า มาตรการและระบบความปลอดภัยสำหรับการติดตั้งใช้งานในสภาพแวดล้อมลับยังไม่พร้อม จึงยังไม่ได้ทำสัญญาทันที และได้เตรียมงานเพื่อให้มั่นใจว่าสามารถรักษาเส้นแดงได้
    • การ ถอดมาตรการความปลอดภัยเชิงเทคนิคหลักออก เพื่อเพิ่มประสิทธิภาพในงานด้านความมั่นคงแห่งชาติ ไม่ใช่แนวทางที่ถูกต้อง
    • ยังมีเป้าหมายเพื่อลด ความตึงเครียด ระหว่างกระทรวงกลาโหมกับห้องแล็บ AI ของสหรัฐ โดยขอให้รัฐบาลเสนอเงื่อนไขเดียวกันแก่ห้องแล็บ AI ทุกแห่ง และโดยเฉพาะให้ช่วย แก้ปัญหากับ Anthropic
  • เปรียบเทียบกับ Anthropic

    • เห็นว่าสัญญาของ OpenAI ให้ หลักประกันที่ดีกว่าและมาตรการความปลอดภัยที่รับผิดชอบมากกว่า สัญญาเดิมของ Anthropic
    • การติดตั้งใช้งานบนคลาวด์เท่านั้น (ไม่ใช่ edge), การคง safety stack ของตนเองไว้, และการมีบุคลากร OpenAI ที่ผ่านการรับรองด้านความมั่นคงเข้าร่วม ทำให้เส้นแดง บังคับใช้ได้จริงมากกว่า
    • ไม่ทราบว่าเหตุใด Anthropic จึงไม่สามารถทำสัญญานี้ได้ และหวังว่า Anthropic กับห้องแล็บอื่น ๆ จะพิจารณาแนวทางนี้มากขึ้น
  • การกำหนดให้ Anthropic เป็น "ความเสี่ยงในห่วงโซ่อุปทาน" หรือไม่

    • คัดค้านการกำหนด Anthropic เป็น "ความเสี่ยงในห่วงโซ่อุปทาน" และได้สื่อสารจุดยืนนี้กับรัฐบาลอย่างชัดเจน
  • ความเป็นไปได้ในการใช้งานกับอาวุธอัตโนมัติ

    • จาก safety stack, การติดตั้งใช้งานบนคลาวด์เท่านั้น, ถ้อยคำในสัญญา, รวมถึงกฎหมาย ระเบียบ และนโยบายที่มีอยู่ จึง ไม่สามารถนำไปใช้กับอาวุธอัตโนมัติได้
    • บุคลากรของ OpenAI อยู่ในลูปเพื่อให้ หลักประกันเพิ่มเติม
  • ความเป็นไปได้ในการใช้งานกับการสอดส่องในวงกว้าง

    • จาก safety stack, ถ้อยคำในสัญญา และกฎหมายที่มีอยู่ซึ่งจำกัดการสอดส่องภายในประเทศของกระทรวงกลาโหมอย่างมาก จึง ไม่สามารถนำไปใช้กับการสอดส่องในวงกว้างได้
  • มีการติดตั้งใช้งานโดยไม่มี safety stack หรือไม่

    • OpenAI ยังคงมี อำนาจควบคุม safety stack อย่างสมบูรณ์ และจะไม่ติดตั้งใช้งานโดยไม่มี safety guardrail
    • ต่างจากห้องแล็บ AI อื่น ๆ ที่ลดทอน guardrail ของโมเดลและพึ่งพานโยบายการใช้งานเป็นมาตรการหลัก OpenAI เห็นว่า แนวทางหลายชั้น ของตนมีประสิทธิภาพมากกว่า
  • หากรัฐบาลละเมิดสัญญา

    • เช่นเดียวกับสัญญาทั่วไป หากอีกฝ่ายละเมิดเงื่อนไข ก็ สามารถยกเลิกสัญญาได้
  • หากกฎหมายหรือนโยบายเปลี่ยนแปลง

    • ในสัญญาได้ อ้างอิงอย่างชัดเจนตามมาตรฐานปัจจุบัน ถึงกฎหมายและนโยบายที่เกี่ยวกับการสอดส่องและอาวุธอัตโนมัติ
    • แม้ในอนาคตกฎหมายหรือนโยบายจะเปลี่ยนไป การใช้งานระบบก็ยังต้อง สอดคล้องกับมาตรฐานปัจจุบันที่สะท้อนอยู่ในสัญญา

การตอบโต้ต่อ โพสต์บล็อกของ Anthropic

  • OpenAI เห็นด้วยกับเส้นแดง 2 ข้อที่ Anthropic เสนอไว้ (การสอดส่องภายในประเทศในวงกว้าง, อาวุธอัตโนมัติเต็มรูปแบบ) และเพิ่มเส้นแดงข้อที่สามคือ การตัดสินใจอัตโนมัติความเสี่ยงสูง
  • การสอดส่องภายในประเทศในวงกว้าง: ระหว่างการหารือเป็นที่ชัดเจนว่ากระทรวงกลาโหมถือว่าสิ่งนี้ผิดกฎหมายและไม่ได้วางแผนใช้เพื่อจุดประสงค์ดังกล่าว และในสัญญาได้ ระบุชัด ว่าไม่เข้าข่ายการใช้งานที่ชอบด้วยกฎหมาย
  • อาวุธอัตโนมัติเต็มรูปแบบ: ในสภาพแวดล้อมการติดตั้งใช้งานแบบคลาวด์ที่รวมอยู่ในสัญญา ไม่สามารถใช้งานอาวุธอัตโนมัติเต็มรูปแบบได้ เพราะกรณีนั้น ต้องอาศัยการติดตั้งบน edge
  • นอกเหนือจากการคุ้มครองเหล่านี้ ยังมี มาตรการความปลอดภัยหลายชั้นเพิ่มเติม คือ safety stack และการมีผู้เชี่ยวชาญเทคโนโลยีของ OpenAI อยู่ในลูป

1 ความคิดเห็น

 
GN⁺ 2026-03-02
ความคิดเห็นจาก Hacker News
  • จากการตีความของฉัน สัญญาระหว่าง OpenAI กับกระทรวงกลาโหม ดูเหมือนจะห้ามการสอดแนมชาวอเมริกันในวงกว้าง แต่ความจริงหมายถึงจำกัดไว้แค่ในขอบเขตที่กฎหมายห้ามไว้อยู่แล้ว
    กล่าวคือ มันอ่านได้ว่ากระทรวงกลาโหมยังสามารถซื้อข้อมูลจำนวนมากอย่างข้อมูลตำแหน่งหรือธุรกรรมทางการเงินจากบริษัทเอกชน แล้วนำมาวิเคราะห์ด้วยเครื่องมือของ OpenAI ได้
    เท่าที่ฉันรู้ สัญญาของ Anthropic ไม่มีเงื่อนไขแบบนี้
    ถ้าเป็นเรื่องจริงก็น่ากลัวมาก แต่ช่วงหลังฉันด่วนสรุปผิดมาหลายครั้ง รอบนี้เลยขอชะลอการตัดสินไว้ก่อน
    (อ้างอิง ฉันเป็นอดีตพนักงาน OpenAI และปัจจุบันก็ยังเป็นผู้ถือหุ้น)

    • ดูเหมือน OpenAI จะไม่ใช่บริษัทที่มีสิทธิพูดเรื่อง จริยธรรม อีกต่อไปแล้ว
      ต่างจากสมัยที่ยังเป็นองค์กรไม่แสวงกำไร ตอนนี้พวกเขาเปลี่ยนนโยบายความเป็นส่วนตัวไปแล้วถึงสองครั้งเพื่อเก็บข้อมูลของฉันให้มากขึ้น
      ขั้นตอนปิดการตั้งค่าก็ซับซ้อน แถมเต็มไปด้วย dark pattern และฟีเจอร์ดาวน์โหลดข้อมูลก็แทบใช้งานไม่ได้จริง
    • นี่มีความหมายตรงตัวว่า “ปฏิบัติตามแค่ข้อจำกัดที่มีอยู่ในกฎหมายแล้ว”
      เป็นตัวอย่างชัดเจนของ ‘weasel language’ (ถ้อยคำเลี่ยงประเด็น) ที่ Dario พูดถึง
    • ท้ายที่สุดปัญหาก็คือ Third Party Doctrine (หลักการบุคคลที่สาม)
      ถ้าหลักการนี้หายไป สถานการณ์ฝันร้ายแบบนี้ส่วนใหญ่ก็จะหายไปด้วย
    • ผู้คนมักลืมว่าการสอดแนมแบบ NSA ของรัฐบาล มักดำเนินไปพร้อมบันทึกที่บอกว่า “ถูกกฎหมาย” เสมอ
    • ตัวประโยคเองก็สับสนมาก
      สำนวน “Shall not be used as consistent with these authorities” ก็ผิดแปลกแม้ในเชิงไวยากรณ์
      ดูเหมือนว่าพวกทนายตั้งใจ เขียนให้กำกวมเพื่อเปิดช่องให้ตีความในทาง PR ได้
  • ข้อความที่ว่า “The Department of War may use the AI System for all lawful purposes…” สุดท้ายก็หมายความว่า ใช้ได้กับทุกวัตถุประสงค์ตราบใดที่กฎหมายอนุญาต
    Anthropic พยายามใช้มาตรฐานทางศีลธรรมของตัวเอง แต่ OpenAI ยอมรับข้อเรียกร้องของรัฐบาลตามนั้นเลย
    ส่วนตัวฉันเข้าใจได้ทั้งสองจุดยืน แต่ท่าทีที่รัฐบาลแสดงต่อ Anthropic นั้น มีเจตนาร้ายและเป็นผลเสียต่อผลประโยชน์ของสหรัฐเอง

    • สัญญาฝั่งหนึ่งคือ “ห้ามสร้าง Terminator” ส่วนอีกฝั่งคือ “ถ้าทีมกฎหมายบอกว่าโอเค ก็สร้าง Terminator ได้” ต่างกันมาก
    • คำว่า “ถูกกฎหมาย” เป็นเสาค้ำทุกอย่างไว้
      รัฐบาลทำเรื่องผิดกฎหมายอย่างเปิดเผยอยู่แล้ว และไม่มีใครรู้ว่าเบื้องหลังจะมีอะไรเกิดขึ้นบ้าง
      ท้ายที่สุด แก่นของ Anthropic ก็คือ จุดยืนทางศีลธรรมที่ว่าไม่สามารถไว้วางใจรัฐบาลได้
    • ถ้าดูถ้อยคำดี ๆ ตราบใดที่กระทรวงกลาโหมตัดสินว่า “ถูกกฎหมาย” ก็สามารถใช้โมเดลเพื่อวัตถุประสงค์ใดก็ได้
      จะเปลี่ยนกฎเองก็ยังได้
      Sam Altman อาจจะไร้เดียงสา หรือไม่ก็ทำให้เราคิดว่าเขาเป็นแบบนั้น
    • เรื่องนี้ยังไม่สอดคล้องกับจุดยืนเดิมที่ว่า “เทคโนโลยีของ OpenAI จะไม่ถูกใช้ในระบบอาวุธอัตโนมัติ”
    • ลองนึกภาพสถานการณ์ที่มีการแนะนำให้ยิงนักรบที่ประสบภัยอยู่กลางสงคราม
      นั่นคือ อาชญากรรมสงคราม อย่างชัดเจน แล้วใครจะเป็นคนตัดสิน “ความชอบด้วยกฎหมาย” OpenAI, รัฐมนตรีกลาโหม หรือผู้พิพากษา?
  • คำว่า “เพื่อวัตถุประสงค์ใด ๆ ที่กฎหมายอนุญาต” หมายความว่า ผู้ที่ออกกฎหมายไม่ได้กำลังจำกัดตัวเองเลย

    • ในกรณีของการสอดแนมวงกว้าง ต้องถึงขั้นแก้รัฐธรรมนูญ จึงซับซ้อนกว่าการเปลี่ยนกฎหมายธรรมดา
      แต่ถ้ารู้ว่าเป็นสิ่งผิดกฎหมายแล้วยังช่วยรัฐบาล ก็อาจเข้าข่าย สมคบคิดกระทำความผิด รัฐบาลอาจได้รับความคุ้มกัน แต่ OpenAI อาจไม่ได้รับ
    • แถมรัฐบาลยังสามารถ ออกและบังคับใช้กฎอย่างลับ ๆ ได้อีก
    • ยังมีปฏิกิริยาเชิงประชดด้วยว่า “หมายถึงเราไม่ควรเชื่อคำพูดของนักต้มตุ๋นที่เคยถูกตัดสินว่ามีความผิดงั้นหรือ?”
  • ฉันไม่คิดว่า Anthropic เป็นพวก คนดีมีศีลธรรมสมบูรณ์แบบ
    ChatGPT ก็เหมือนกัน
    แต่ ณ ตอนนี้ การยกเลิก ChatGPT แล้วไปใช้ Claude เป็นการกระทำที่แสดงข้อความที่ฉันอยากสื่อ

    • การแสดงให้เห็นว่าเรามี ความตั้งใจจะย้ายออก เป็นเรื่องสำคัญ
      ถ้าผู้ใช้พร้อมจะจากไปทันทีเมื่อเกิดประเด็น บริษัทต่าง ๆ ก็จะระวังตัวมากขึ้น
    • อีกอย่าง ตอนนี้ Claude ทำงานได้ดีกว่า ChatGPT มาก
    • ฉันกำลังจะลองใช้ Claude แทนการค้นหาทั่วไป เช่น สำหรับคำถามง่าย ๆ อย่างสูตรอาหารหรือรีวิวสินค้า ว่าจะใช้ได้ดีไหม
    • ในระยะยาว ฉันคิดว่า โมเดล open-weight จะดีที่สุด
      การที่ Anthropic ไม่ยอมอ่อนข้อในครั้งนี้ถือว่าน่าประทับใจมาก
      แม้ GPU จะยังขาดแคลน แต่ฉันก็วางแผนจะเลิกใช้ ChatGPT แล้วย้ายไป Claude หรือ Kimi
  • ท้ายที่สุด ต่อให้พนักงานมีจุดยืนทางศีลธรรม ถ้า ไม่มีอำนาจตัดสินใจ มันก็ไม่มีความหมาย
    อำนาจเดียวคือ ‘ลาออก’

    • แต่ถ้าเกิด การลาออกพร้อมกันเป็นกลุ่ม นั่นจะกลายเป็นพลังมหาศาล
    • ที่จริงแล้ว สหภาพแรงงาน ก็มีไว้เพื่อป้องกันสถานการณ์แบบนี้
      ถ้าวิศวกรหลักหยุดงานพร้อมกัน Sam Altman คนเดียวก็ไม่สามารถประคองบริษัทไว้ได้
    • พนักงาน OpenAI เคยมีพลังทำให้ Sam Altman กลับเข้ามาได้ตอนที่เขาถูกปลดเมื่อ 2 ปีก่อน
    • ถ้าพนักงานรวมพลังกันก็หยุดบริษัทได้เหมือนกัน แต่ก็ยากจะคาดหวัง วัฒนธรรมความเป็นน้ำหนึ่งใจเดียวกัน แบบนั้นในที่อย่าง OpenAI
  • OpenAI กำลัง หลีกเลี่ยงความรับผิดชอบทางศีลธรรม ด้วยแนวคิดประมาณว่า “ให้กฎหมายรับหน้าที่เรื่องความรับผิดชอบทางศีลธรรมของ AI ก็แล้วกัน”

  • ถ้ายังมีพนักงาน OpenAI ที่มีทรัพย์สินสุทธิเกิน 2 ล้านดอลลาร์แล้วยังอยู่ต่อ ก็แปลว่า เข็มทิศทางศีลธรรมพังไปแล้ว
    ตอนนี้ไม่ต่างอะไรจากการไปทำงานที่ Palantir หรือ xAI

    • ยังมีคำตอบเชิงเยาะเย้ยว่า “ฉันจะร้องไห้บนหมอนที่ทำจากเงิน แน่นอนว่าในเชิง จริยธรรม
  • ถ้อยคำที่ว่า “สามารถใช้เพื่อทุกวัตถุประสงค์ที่ถูกกฎหมาย” สุดท้ายหมายความว่า กระทรวงกลาโหมได้สิ่งที่ต้องการจากกฎกำกับดูแลที่อ่อนแออยู่แล้ว

  • โพสต์บล็อกนี้ยิ่งทำให้สถานการณ์ดูแย่ลง
    มันไม่ได้ขีดเส้นชัดเจนต่อ การใช้งานที่ก่อข้อถกเถียง ซึ่ง Anthropic เคยปฏิเสธ
    แค่บอกว่า “ทำได้เฉพาะกรณีที่ถูกกฎหมายและผ่านการทดสอบแล้ว” เท่านั้น
    ให้ความรู้สึกเหมือน IBM ในเยอรมนียุคทศวรรษ 1930 ที่ขายเครื่องจักรแล้วบอกว่า “เราไม่รู้”
    สุดท้ายสิ่งที่กองทัพต้องการก็คือ อาวุธอัตโนมัติและการสอดแนมวงกว้าง รวมถึงการใช้งานอื่น ๆ ที่แม้จะถูกกฎหมาย แต่ก็ยังอยู่ใน พื้นที่สีเทาทางศีลธรรม