3 คะแนน โดย GN⁺ 2026-02-28 | 3 ความคิดเห็น | แชร์ทาง WhatsApp
  • Sam Altman ซีอีโอของ OpenAI ประกาศว่าได้บรรลุ ข้อตกลงในการนำโมเดลไปใช้งานในเครือข่ายลับ กับกระทรวงกลาโหมสหรัฐฯ (DoW)
  • ข้อตกลงดังกล่าวรวมหลักการ ห้ามการสอดส่องภายในประเทศในวงกว้าง และ ความรับผิดชอบของมนุษย์ต่อการใช้กำลัง ซึ่งครอบคลุมถึงระบบอาวุธอัตโนมัติ โดยกระทรวงกลาโหมก็เห็นชอบกับหลักการนี้
  • มีเงื่อนไขให้สร้าง มาตรการป้องกันทางเทคนิค เพื่อให้โมเดลทำงานตามที่ตั้งใจไว้, นำไปใช้งานได้เฉพาะบนเครือข่ายคลาวด์ และจัดส่งวิศวกรประจำหน้างาน (FDE)
  • OpenAI ขอให้กระทรวงกลาโหมเสนอ เงื่อนไขเดียวกันนี้แก่บริษัท AI ทุกราย โดยมองว่าเป็นเงื่อนไขที่ทุกบริษัทสามารถยอมรับได้
  • ระบุว่าต้องการอย่างยิ่งให้ คลี่คลายสถานการณ์ผ่านข้อตกลงที่สมเหตุสมผล มากกว่ามาตรการทางกฎหมายหรือการดำเนินการระดับภาครัฐ

เนื้อหาของข้อตกลง

  • OpenAI ทำข้อตกลงเพื่อนำ โมเดลไปใช้งานในเครือข่ายลับของกระทรวงกลาโหม
  • ประเมินว่าในกระบวนการเจรจา กระทรวงกลาโหมได้แสดง ความเคารพอย่างลึกซึ้งต่อความปลอดภัย และความตั้งใจที่จะเป็นพันธมิตรเพื่อให้ได้ผลลัพธ์ที่ดีที่สุด

หลักการด้านความปลอดภัย

  • ความปลอดภัยของ AI และการกระจายประโยชน์อย่างกว้างขวางเป็น หัวใจของภารกิจ ของ OpenAI
  • หลักการด้านความปลอดภัยสำคัญ 2 ข้อที่รวมอยู่ในข้อตกลง:
    • ห้ามการสอดส่องภายในประเทศในวงกว้าง
    • ความรับผิดชอบของมนุษย์ต่อการใช้กำลัง ซึ่งรวมถึงระบบอาวุธอัตโนมัติ
  • กระทรวงกลาโหมก็เห็นชอบกับหลักการนี้ และจะ สะท้อนหลักการดังกล่าวไว้ในกฎหมายและนโยบาย พร้อมระบุไว้ในข้อตกลง

มาตรการป้องกันทางเทคนิคและเงื่อนไขการนำไปใช้งาน

  • จะสร้าง มาตรการป้องกันทางเทคนิค (technical safeguards) เพื่อให้โมเดลทำงานตามที่ตั้งใจไว้ ซึ่งเป็นสิ่งที่กระทรวงกลาโหมต้องการเช่นกัน
  • จัดส่ง วิศวกรประจำหน้างาน FDE (Field Deployment Engineer) เพื่อสนับสนุนโมเดลและรับประกันความปลอดภัย
  • มีเงื่อนไขให้ นำไปใช้งานได้เฉพาะบนเครือข่ายคลาวด์

ขอให้ขยายไปทั้งอุตสาหกรรม

  • OpenAI ขอให้กระทรวงกลาโหมเสนอ เงื่อนไขเดียวกันนี้แก่บริษัท AI ทุกราย
  • มองว่าเป็นเงื่อนไขที่ทุกบริษัทสามารถยอมรับได้ (willing to accept)
  • ระบุว่าต้องการอย่างยิ่งให้ คลี่คลายสถานการณ์ผ่านข้อตกลงที่สมเหตุสมผล แทนการใช้มาตรการทางกฎหมายหรือการดำเนินการระดับภาครัฐ

3 ความคิดเห็น

 
xguru 2026-02-28

ท้ายที่สุดแล้วกระทรวงกลาโหมสหรัฐก็ทิ้ง Anthropic แล้วเลือก OpenAI แต่มีความต่างกันในเชิงถ้อยคำอย่างที่มักพูดกันอยู่

OpenAI เสนอ กลไกการดำเนินการที่เป็นรูปธรรม ไปพร้อมกัน เช่น การสร้างมาตรการความปลอดภัยทางเทคนิค, การส่ง FDE (วิศวกรภาคสนาม) เข้าไปประจำ, และการดีพลอยแบบเฉพาะสำหรับคลาวด์
Anthropic เรียกร้อง ข้อยกเว้นในระดับเงื่อนไขการใช้งาน

ในมุมของกระทรวงกลาโหมสหรัฐ จึงมองว่า "บริษัทเอกชนกำลังใช้อำนาจวีโต้ต่อกรณีการใช้งานรายกรณี" และประกาศออกมาในทำนองเหมือนลงโทษเชิงสั่งสอน

ข้อตกลงนี้ถูกประกาศไม่นานหลังจาก Anthropic ถูกระบุว่าเป็นความเสี่ยงด้านซัพพลายเชน และ
ถ้าดูจากบทความของ Axios กระทรวงกลาโหมใช้ความขัดแย้งกับ Anthropic เป็นเครื่องมือตั้งโทนในการเจรจากับบริษัท AI รายอื่น ๆ และ
OpenAI ก็เหมือนสามารถดึงข้อตกลงออกมาได้ในรูปแบบที่กระทรวงกลาโหมยอมรับได้ภายใต้แรงกดดันนั้น

ความต่างของถ้อยคำในจุดยืนอย่างเป็นทางการก็มากเหมือนกัน

Sam Altman บอกว่า "กระทรวงกลาโหมแสดงความเคารพต่อความปลอดภัยอย่างลึกซึ้ง" ขณะที่
ฝั่ง Anthropic ยังคงใช้น้ำเสียงแบบ "เราไม่อาจเห็นชอบต่อข้อเรียกร้องของกระทรวงกลาโหมได้ตามมโนธรรม" จนถึงที่สุด

ดูเหมือนว่าแม้จะเป็นหลักการเดียวกัน แต่ความต่างใหญ่คือจะรักษาหน้ากระทรวงกลาโหมหรือไม่ และ
สุดท้ายเมื่อ OpenAI ยอมรับ เงื่อนไขเลยออกมาดูแปลก ๆ
Sam Altman จึงใส่ประโยคว่า "ขอให้เสนอเงื่อนไขนี้แบบเดียวกันกับทุกบริษัท AI" ไว้ในตอนท้าย
ซึ่งก็ดูเหมือนเป็นการส่งสัญญาณอ้อม ๆ ว่าอยากให้ผ่อนมาตรการที่ใช้กับ Anthropic ลง

 
lamanus 2026-03-01

แม้จะเป็นสัญญาในระดับเดียวกัน แต่ความน่าเชื่อถือหรือภาพลักษณ์กลับให้ความรู้สึกต่างกันมากจริง ๆ
คงต้องยกเลิกการสมัครสมาชิก gpt แล้วมั้งครับ

 
GN⁺ 2026-02-28
ความเห็นจาก Hacker News
  • ผมไม่เข้าใจว่าทำไมพนักงาน OpenAI ที่เคยร่วมลงชื่อในแถลงการณ์ ‘We Will Not Be Divided’ ถึงยังทำงานต่อหลังจากเรื่องนี้
    ถ้า OpenAI ยืนกรานเงื่อนไขแบบเดียวกับที่ Anthropic เรียกร้อง รัฐบาลก็คงไม่อนุมัติสัญญานี้
    สุดท้ายจึงดูเหมือนว่ามี ข้อตกลงโดยปริยายว่า OpenAI จะไม่บังคับใช้เส้นแบ่งข้อห้ามจริงจัง
    • ตอนที่ Sam Altman ถูกปลดแล้วกลับมา ผมคิดว่า พนักงานสายความปลอดภัย ก็ออกไปกันหมดแล้ว
      คนที่ยังอยู่ตอนนี้ส่วนใหญ่น่าจะอยู่เพราะ หุ้น
    • แต่ก็มีการบอกว่า OpenAI ใส่หลักการแบบเดียวกับ Anthropic ไว้ในสัญญาเหมือนกัน
      โดยระบุว่า “ห้ามการสอดแนมมวลชนภายในประเทศ” และ “มนุษย์ต้องรับผิดชอบต่อการใช้กำลัง” และยังบอกด้วยว่า DoW(Department of War) ก็เห็นด้วยกับเรื่องนี้
    • เรื่องนี้สุดท้ายก็สื่อว่า บริษัทยักษ์ใหญ่ด้าน AI ทุกแห่งกำลังจะลงนามให้เกิด การใช้งานเทคโนโลยีทางทหารแบบคลุมเครือและไม่โปร่งใส
    • ดูจาก 1 ปีที่ผ่านมาในรัฐบาล Trump การเจรจาไร้เหตุผลแบบนี้ไม่ได้ทำให้แปลกใจเลย
      วิธีของพวกเขาคือผลาญทุนทางการเมืองโดยใช่เหตุแล้วก็ไปปิดดีลที่แย่กว่าเดิม
    • ผมมองว่าข้างหลังเรื่องนี้มี เจตนาทางการเมือง ที่รัฐบาลต้องการควบคุมบริษัท
      เป็นไปได้เหมือนกันว่า OpenAI เสนอเงื่อนไขแบบเดียวกับ Anthropic แต่รัฐบาลเลือกมองข้ามเพราะเงินล็อบบี้หรือ ผลทาง PR
  • ถ้าไม่พอใจกับเรื่องนี้ ผมคิดว่าควร แสดงจุดยืนด้วยกระเป๋าเงิน
    ผมลบ ChatGPT ยกเลิกสมาชิก แล้วตัดสินใจสนับสนุน Anthropic มากขึ้น
    • ผมก็เคยยกเลิก Claude ไปช่วงใกล้ ๆ กัน แต่เพราะเรื่องนี้เลย กลับมาสมัคร Claude ใหม่
      รู้สึกว่าจุดยืนที่มีหลักการสำคัญมาก และตอนนี้ก็ไม่เชื่อถือ OpenAI แล้ว
    • ผมก็เพิ่งยกเลิกสมาชิกเหมือนกัน
      ความเคารพที่ยังเหลือต่อ Sam Altman ก็หายไปหมด และผมรู้สึกขยะแขยงกับ ความจริงที่ว่า AI ถูกความโลภของมนุษย์ทำให้ปนเปื้อน
      อุดมคติที่ OpenAI เคยเริ่มต้นในฐานะองค์กรไม่แสวงหากำไรหายไปหมดแล้ว
      ทุกคนควรยกเลิกสมาชิก และควร เก็บภาษีหนัก ๆ กับบริษัทและ CEO แบบนี้
    • จริง ๆ แล้วผมย้ายไปใช้ Claude กับ Gemini ตั้งแต่ 4 เดือนก่อนแล้ว
      แค่ดูคุณภาพของผลิตภัณฑ์ก็รู้สึกได้ว่า OpenAI ไม่เหมือนเดิมอีกต่อไป
    • ผมลบทุกบทสนทนาและลบบัญชีทิ้งทั้งหมดแล้ว
    • ผมก็คิดเหมือนกัน จากนี้จะไม่จ่ายเงินให้ OpenAI แม้แต่บาทเดียว
      ตอนนี้จะรอดูว่า Google จะเลือกทางไหน
  • ผมคิดว่า Sam Altman เป็นหนึ่งใน บุคคลที่ไว้ใจยากที่สุด ในวงการ AI
    คำพูดอย่าง “มนุษย์ต้องรับผิดชอบต่อการใช้กำลัง” ของเขาฟังดูเหมือน ถ้อยคำเลี่ยงประเด็น
    • “ความรับผิดชอบของมนุษย์” ไม่เหมือนกับ “การตัดสินใจโดยมนุษย์”
      สุดท้ายมันก็แปลว่ายังเปิดทางให้ อาวุธสังหารอัตโนมัติ ได้
      ต่อให้ระบุว่าประธานาธิบดีหรือกระทรวงกลาโหมเป็น “ผู้รับผิดชอบ” ก็แทบ ไม่มีทางเอาผิดได้จริง
  • แค่เห็นว่ามีคนเรียกหน่วยงานรัฐบาลนี้ว่า “Department of War” ก็รู้ทุกอย่างแล้ว
  • มีคำอธิบายเกี่ยวกับความต่างระหว่างสัญญาของ OpenAI กับ Anthropic จากรัฐมนตรีช่วยว่าการกระทรวงการต่างประเทศ
    ในโพสต์แรก เขาบอกว่าสัญญาของ OpenAI มี มาตรการคุ้มกันที่อิงข้อจำกัดทางกฎหมาย
    ส่วนในโพสต์ที่สอง เขาบอกว่าสัญญาถูกทำขึ้นบนพื้นฐานของ “การใช้งานที่ถูกกฎหมายทั้งหมด” ซึ่งเป็นแนวทางที่ให้อำนาจกับระบบประชาธิปไตย
    และบอกว่า Anthropic ปฏิเสธทางประนีประนอมนี้
    • แต่คำสัญญาจากรัฐบาลว่า “จะทำแต่สิ่งที่ถูกกฎหมาย” ไม่ได้ทำให้อุ่นใจเลย
      ในอดีตก็มีหลายครั้งที่ การกระทำผิดกฎหมายถูกทำให้ดูเหมือนถูกกฎหมาย และยังเคยเปลี่ยนตัวบทกฎหมายไปเลยด้วย
      สุดท้ายแล้วกฎหมายอย่างเดียว หยุดการใช้อำนาจเกินขอบเขตของรัฐไม่ได้
    • คำพูดของรัฐมนตรีช่วยคนนี้ก็เป็นแค่ คำชี้แจงเชิงประชาสัมพันธ์จากฝ่ายบริหาร ไม่ใช่การวิเคราะห์อย่างเป็นกลาง
    • ยิ่งไปกว่านั้น เขาไม่ใช่คนที่เข้าร่วมการเจรจาจริงด้วย
      ต่อให้คำอธิบายของเขาถูกต้อง ก็ยังเชื่อได้ยากจนกว่าสื่อที่น่าเชื่อถือจะเผยแพร่สัญญาฉบับเต็ม
      ถ้าเป็นความจริง การตอบสนองระดับ คว่ำบาตร OpenAI และกองทัพสหรัฐก็ดูสมเหตุสมผล
  • ตามรายงานของ CNN บอกว่า OpenAI ก็มี เส้นแบ่งข้อห้าม(redlines) แบบเดียวกับ Anthropic
    บทความที่เกี่ยวข้อง
    • แต่ในรัฐบาล Trump การคาดหวัง ความสอดคล้องทางตรรกะ คงเป็นเรื่องเกินไป
      ปัญหาอาจไม่ใช่เรื่องเส้นแบ่งข้อห้าม แต่อาจเป็นเพราะรัฐบาลมอง Anthropic เป็น คู่แข่งทางการเมือง ก็ได้
  • ตอนแรกมันดูเหมือน พฤติกรรมฉวยโอกาส ตามสไตล์ Sam Altman และผมก็ลังเลว่าจะยกเลิกสมาชิกดีไหม
    แต่ถ้ามองอย่างเป็นกลางขึ้น ประเด็นสำคัญคือผู้ที่มีสิทธิ์ตัดสินว่าอะไรคือ “การใช้งานที่ถูกกฎหมาย” คือรัฐบาลหรือบริษัท AI
    จากโพสต์นี้ ดูเหมือนว่า Anthropic อยากสะท้อนเกณฑ์นี้ไว้ตรง ๆ ในรัฐธรรมนูญของ Claude
    สุดท้ายผมเลย ยกเลิกสมาชิก ไปก่อนจนกว่า OpenAI จะมีจุดยืนที่ชัดเจน
    • จริง ๆ แล้ว DoW ยอมรับเงื่อนไขของ Anthropic มานานกว่าหนึ่งปีแล้ว
      แต่จู่ ๆ ก็ขู่ด้วยการกำหนดเป็น SCR และการบังคับเข้าซื้อภายใต้ DPA เพื่อบีบให้เจรจาใหม่
      ถ้าสัญญาของ OpenAI คล้ายกับของ Anthropic จริง เรื่องนี้ก็เป็นอะไรที่ สองมาตรฐานและไม่เป็นธรรมอย่างยิ่ง
  • เป็นเรื่องแปลกที่ OpenAI มีเส้นแบ่งข้อห้ามแบบเดียวกับ Anthropic แต่สัญญายังถูกทำขึ้นได้
    • ผมเดาว่า Sam คงสัญญากับกระทรวงกลาโหมว่าเป็นแค่ เส้นแบ่งข้อห้ามชั่วคราว
      พอเวลาผ่านไปก็จะยอมให้มีโมเดลสำหรับอาวุธอัตโนมัติ และ ฟังก์ชันสอดแนมอาจอ้อมผ่าน Palantir ได้
    • ดูเหมือน Sam ใช้ ความสนิทกับรัฐบาล เพื่อสกัด Anthropic
    • คำพูดของ Sam เชื่อถือไม่ได้
      มีโอกาสสูงว่าจะเป็น คำโกหกเชิงกลยุทธ์ เพื่อทำให้ Anthropic ดูแย่
    • มันดูเหมือนท่าทีแบบ เห็นด้วยกับหลักการแต่จะไม่ทำตามเอง
    • สุดท้ายเป้าหมายจริงคือ “รวบสัญญา AI ไปให้ Sam” และประเด็นเส้นแบ่งข้อห้ามก็เป็นแค่ข้ออ้าง
  • ผมก็ลบแอปและยกเลิกสมาชิกแล้ว
    ถ้าไม่มีฐานผู้ใช้ OpenAI ก็รักษา มูลค่ากิจการที่ถูกปั่นสูงเกินจริง ในตอนนี้ไว้ไม่ได้
    ตอนนี้โมเดลอื่น ๆ ก็แข่งขันได้ดีพอแล้ว
  • ตอนนี้เราต้องการกลุ่มที่ คนทำเทคโนโลยีที่มีศีลธรรม มารวมตัวกันได้
    ผมเบื่อพฤติกรรมคอร์รัปชันแบบนี้เต็มทน
    • เราต้องมี ธงใหม่ ที่ใช้แสดงตัวว่าเป็น “นักเทคโนโลยีที่มีจริยธรรม” ได้ง่าย และช่วยให้เชื่อมถึงกันได้