1 คะแนน โดย GN⁺ 2026-03-01 | 5 ความคิดเห็น | แชร์ทาง WhatsApp
  • OpenAI ได้ทำ สัญญาสำหรับการติดตั้งระบบ AI ขั้นสูงในสภาพแวดล้อมลับกับ Department of War และได้ขอให้มีการใช้เงื่อนไขนี้อย่างเท่าเทียมกับบริษัท AI ทุกแห่ง
  • ระบุว่าสัญญาดังกล่าวมี ราวกั้นด้านความปลอดภัยมากกว่าเดิม เมื่อเทียบกับการติดตั้ง AI แบบลับก่อนหน้านี้
  • กำหนดเส้นแดงไว้อย่างชัดเจนว่าจะไม่ใช้เทคโนโลยีของ OpenAI กับ การสอดส่องภายในประเทศในวงกว้าง, การควบคุมอาวุธอัตโนมัติ, การตัดสินใจอัตโนมัติความเสี่ยงสูง
  • คงอำนาจตัดสินใจเต็มรูปแบบเหนือสแตกความปลอดภัย, การติดตั้งแบบคลาวด์, การมีส่วนร่วมของบุคลากรที่ได้รับการรับรองด้านความมั่นคง, และการใช้มาตรการคุ้มครองตามสัญญาที่เข้มงวด
  • ยืนยันจุดยืนต่อ Department of War อย่างชัดเจนว่า ไม่ควรกำหนดให้ Anthropic เป็นความเสี่ยงด้านซัพพลายเชน

การทำสัญญากับ Department of War

  • OpenAI ได้ทำ สัญญาเพื่อติดตั้งระบบ AI ขั้นสูงในสภาพแวดล้อมลับกับ Department of War
    • และขอให้การติดตั้งลักษณะนี้เปิดให้กับบริษัท AI ทุกแห่งอย่างเท่าเทียม
  • สัญญาครั้งนี้มี มาตรการความปลอดภัยมากกว่าเดิม เมื่อเทียบกับสัญญาติดตั้ง AI แบบลับที่ผ่านมา

การคงไว้ซึ่งเส้นแดง

  • จะไม่ใช้เทคโนโลยีของ OpenAI กับ การสอดส่องภายในประเทศในวงกว้าง
  • จะไม่ใช้เทคโนโลยีของ OpenAI กับ การควบคุมระบบอาวุธอัตโนมัติ
  • จะไม่ใช้เทคโนโลยีของ OpenAI กับ ระบบตัดสินใจอัตโนมัติความเสี่ยงสูง (เช่น social credit)

โครงสร้างการคุ้มครองความปลอดภัยแบบหลายชั้น

  • ตรงกันข้ามกับบางห้องปฏิบัติการ AI ที่ลดทอนหรือถอดการคุ้มครองด้านความมั่นคงแห่งชาติให้เหลือเพียง การคุ้มครองที่ยึดตามนโยบายการใช้งาน
  • OpenAI ใช้ แนวทางแบบหลายชั้นที่ขยายเพิ่ม
    • คงอำนาจตัดสินใจเต็มรูปแบบเหนือสแตกความปลอดภัย
    • คงรูปแบบการติดตั้งบนคลาวด์
    • ใช้โครงสร้างที่ให้บุคลากร OpenAI ซึ่งได้รับการรับรองด้านความมั่นคงเข้ามามีส่วนร่วม
    • รวมมาตรการคุ้มครองตามสัญญาที่เข้มงวด
    • ดำเนินควบคู่กับมาตรการคุ้มครองตามกฎหมายสหรัฐฯ ที่มีอยู่เดิม

จุดยืนต่อ Anthropic

  • แสดงจุดยืน คัดค้านการกำหนดให้ Anthropic เป็นความเสี่ยงด้านซัพพลายเชน
  • ได้สื่อสารจุดยืนดังกล่าวต่อ Department of War อย่างชัดเจน

5 ความคิดเห็น

 
kayws426 2026-03-01

ดูเหมือนว่าน่าจะต้องมีการสรุปไทม์ไลน์ของประเด็นที่เกี่ยวข้องนี้นะครับ เห็นว่ามีคำพูดด้วยว่า OpenAI กำลังอยู่ระหว่างการเจรจาสัญญาไม่ใช่หรือ?

 
kentakang 2026-03-01

นี่น่าจะเป็นครั้งแรกที่สรุปผิดว่าไม่มีเนื้อหานะ..

 
xguru 2026-03-01

ดูเหมือนว่าจะมีกรณีแบบนั้นเกิดขึ้น เพราะ x ค่อนข้างลำบากในการครอลข้อมูล เราจะลองปรับปรุงดูครับ

 
kentakang 2026-03-01

ติดตามอ่านอยู่เสมอ ขอบคุณครับ

 
GN⁺ 2026-03-01
ความเห็นจาก Hacker News
  • ประเด็นสำคัญคือ ความแตกต่างระหว่างถ้อยคำจริงในสัญญา OpenAI กับสิ่งที่ Altman พูด
    ในสัญญาระบุว่า “จะไม่ใช้เพื่อปฏิบัติการอาวุธอัตโนมัติในกรณีที่กฎหมายหรือนโยบายกำหนดให้ต้องมีการควบคุมโดยมนุษย์”
    นั่นหมายความว่า หากกระทรวงกลาโหมตัดสินว่า “ไม่จำเป็นต้องมีการควบคุมโดยมนุษย์” ก็ทำได้ทันที
    Anthropic วาง เส้นห้ามแบบเด็ดขาด ว่า “ห้ามการเฝ้าระวังในวงกว้างโดยเด็ดขาด” แต่ OpenAI ผ่อนให้เป็นแนว “ถ้ากฎหมายอนุญาตก็ทำได้”
    การทำสัญญาแบบนั้นแล้วมาทำเหมือนปกป้อง Anthropic ดูเหมือนเป็น การแสดง PR ที่หาได้ยากในวงการ

    • ผมคิดว่าพฤติกรรมแบบนี้ของ Altman เป็น รูปแบบเดิม ๆ ที่เคยเห็นตอนเหตุการณ์ปลดเขาออกก่อนหน้านี้ด้วย
    • แม้จะเขียนทำนองว่า “ห้ามการเฝ้าระวังชาวอเมริกันในวงกว้าง” แต่สุดท้ายก็เปิดช่องให้ตีความได้มากเกินไป
  • ใน เธรด X OpenAI อ้างว่า “สัญญากับกระทรวงกลาโหมยังคงรักษา redline ของเราไว้”
    แต่ตาม บทความของ NPR ระบุว่า Anthropic ถูกกันออกจากสัญญาเพราะยึดมาตรฐานเดียวกันนั้น ขณะที่ OpenAI รับเงินไป

    • Anthropic ตัดสินใจเชิง จริยธรรม ว่า “จะไม่ข้ามเส้นนี้” แต่ OpenAI กลับมีท่าทีประมาณว่า “ให้กระทรวงกลาโหมจัดการกันเอง”
      เลยได้สัญญาไป
    • Anthropic พยายามใส่ข้อจำกัดลงในสัญญา แต่ OpenAI อ้างว่า “ของเราใช้ guardrail ภายในก็พอแล้ว”
      แต่ก็ยังน่าสงสัยว่า guardrail จะหยุดการเฝ้าระวังพลเรือนได้จริงหรือไม่
    • หากดู โพสต์ทางการของ OpenAI จะเห็นว่า redline ไม่ตรงกับของ Anthropic
    • ก็เป็นไปได้ว่ารัฐบาลกัน Anthropic ออกเพียงด้วยเหตุผลแบบ ตอบโต้เอาคืน
    • ผมคิดว่า Altman เป็น คนไร้มโนธรรม และไม่มีเหตุผลที่จะเชื่อคำพูดของเขา
  • ปัญหาของข้อกำหนด “Any Lawful Use” คือกระทรวงกลาโหมสามารถนิยามคำว่า ‘ชอบด้วยกฎหมาย’ ได้ตามใจ
    แค่ทนายภายในเขียนบันทึกไว้ฉบับหนึ่ง มันก็กลายเป็นสิ่งที่ถูกกฎหมายทันที

    • ถ้าคิดว่าปัญหา ทางกฎหมาย หลัง 9/11 หายไปแล้วเพราะมี LLM ก็ถือว่าไร้เดียงสาเกินไป
      การใช้อำนาจรัฐเกินขอบเขตต้องแก้ด้วย การลงคะแนนเสียงและการปฏิรูประบบ
    • เรื่องแบบนี้เกิดขึ้นบ่อยจริง ๆ (เช่น บันทึกของ John Yoo ที่ทำให้การทรมานดูถูกกฎหมาย)
      ระบบไม่ได้ถูกออกแบบมาให้เป็นแบบนั้น แต่ความจริงกลับต่างออกไป
    • เรื่องทำนองนี้ส่วนใหญ่ดำเนินการกันแบบ ลับ ๆ และต่อให้ความจริงเปิดเผยภายหลัง ก็ยังได้รับการยกเว้นโทษในนามของ “ความรักชาติ”
    • สุดท้ายอีกไม่กี่ปีต่อมาก็มีแค่รายงานสอบสวนออกมาฉบับหนึ่ง แล้วทุกคนก็ลืม เป็น ฉากเดิมที่เกิดซ้ำ
    • ต่อให้ถูกทักท้วงทางกฎหมาย ก็ยังซ่อนหลังกฎหมายอย่าง Patriot Act ได้
  • สุดท้าย “Department of War” ที่เปลี่ยนชื่อใหม่ก็คงแค่ผลาญภาษี แล้วซื้อเทคโนโลยีไร้ประโยชน์ในราคาสูง
    รู้สึกเห็นใจประชาชน

  • ความต่างระหว่าง Anthropic กับ OpenAI คือ Anthropic พยายาม บังคับใช้ข้อจำกัดทางเทคนิค ขณะที่ OpenAI แค่ สัญญาด้วยคำพูด ว่า “หวังว่ารัฐบาลจะไม่ฝ่าฝืน”
    จึงไม่แปลกที่รัฐบาลจะเลือกอย่างหลัง

    • หากดู สัญญาฉบับเต็มของ OpenAI จะเห็นว่าคำว่า “เพื่อวัตถุประสงค์ที่ชอบด้วยกฎหมายทั้งหมด” คือแกนหลัก
      หรือก็คือเปิดช่องว่า “ถ้าถูกกฎหมาย ก็อาจใช้เพื่อการเฝ้าระวังในวงกว้างหรืออาวุธสังหารอัตโนมัติได้”
    • OpenAI ต้องการจำกัดเพียงภายในกรอบกฎหมายที่รัฐบาลเป็นผู้สร้างขึ้น ขณะที่ Anthropic ต้องการขีดเส้นตาม มาตรฐานของตนเอง
    • ในความเป็นจริง OpenAI ไม่ได้เรียกร้อง หลักประกันที่มีผลจริง ใด ๆ เลย และ Altman ก็ดูเป็นคนที่ขับเคลื่อนด้วยความโลภเท่านั้น
  • AI ที่ตัดสินใจสังหารแบบอัตโนมัติ เป็นแนวคิดที่อันตรายอย่างยิ่ง
    ไม่ใช่แค่เพราะซูเปอร์อินเทลลิเจนซ์ แต่เพราะแม้แต่โมเดลขนาดเล็กก็อาจทำให้ใครก็ตามสร้าง อาวุธที่ติดตามไม่ได้ ได้
    โมเดลในปัจจุบันถูกฝึกให้มีทัศนคติเชิงบวกต่อชีวิตมนุษย์ แต่ถ้าเอาสิ่งนั้นออกไป มันก็จะกลายเป็น ระบบประหลาดราวสัตว์ประหลาด

    • แต่ LLM ไม่ได้ ‘เข้าใจ’ หรือ ‘เห็นคุณค่า’ ของชีวิตมนุษย์ได้จริง
      มันเป็นเพียง ตัวทำนายโทเค็นเชิงความน่าจะเป็น เท่านั้น
    • ที่จริงแล้วตั้งแต่ 20 ปีก่อน AI ก็มีส่วนในการตัดสินใจสังหาร อยู่แล้ว
      ตัวอย่างเช่น โปรแกรมสร้างรายชื่อเป้าหมายสังหาร แล้วมนุษย์เป็นผู้บังคับโดรน
    • การหลอกโมเดลให้สั่งการสังหารก็ ทำได้ง่าย เช่นกัน
    • ความคิดที่ว่า LLM เคารพชีวิตเป็นเพียง ภาพลวงตา
  • ดูเหมือนหลายคนจะลืมไปว่า Anthropic เคย ร่วมมือกับ Palantir
    พอเรื่องนั้นถูกเปิดเผยก็แค่ใช้ PR กลบ

    • ข้อกล่าวหาแบบนี้อ่านแล้ว ดูเหมือนงานโฆษณาชวนเชื่อ จึงเชื่อถือได้ยาก
    • เท่าที่เข้าใจ โมเดล Anthropic ของ Palantir ถูกใช้ใน ระบบปิดสำหรับภาคสนามทางทหาร
    • ดูเหมือนหลายคนจะไม่ค่อยรู้ว่า Palantir ทำอะไรจริง ๆ
  • ดูเหมือน OpenAI กำลังเสียลูกค้าจากประเด็นนี้อยู่ จึงลง โพสต์เพื่อจัดการภาพลักษณ์

  • Anthropic ต้องการให้รัฐ คุมเข้มกฎระเบียบ AI มากขึ้น แต่สุดท้ายก็เหมือนต้องมาเผชิญผลจากสิ่งนั้นเอง

  • เรื่องนี้ดูเหมือนเป็นการที่ OpenAI ตอบโต้ด้วย PR เพราะตระหนักถึง คำวิจารณ์ว่าเกณฑ์จริยธรรมอ่อนแอ

    • ปัญหาคือทั้งสองบริษัทต่างมีมาตรฐานจริยธรรมที่ ใช้ได้แค่ภายในพรมแดน
      นอกประเทศก็ยังเปิดช่องให้ใช้งานอย่างไร้จริยธรรมได้อยู่ดี