2 คะแนน โดย GN⁺ 2026-03-05 | 3 ความคิดเห็น | แชร์ทาง WhatsApp
  • Dario Amodei ซีอีโอของ Anthropic วิจารณ์อย่างรุนแรงผ่านบันทึกถึงพนักงาน โดยเรียก สัญญากับกระทรวงกลาโหมสหรัฐของ OpenAI ว่าเป็น "safety theater" หรือมาตรการความปลอดภัยแบบสร้างภาพ
  • Anthropic เคยมีสัญญาทางทหารมูลค่า 200 ล้านดอลลาร์อยู่ก่อน แต่การเจรจาล้มเหลวเมื่อกระทรวงกลาโหมเรียกร้อง สิทธิ์เข้าถึงเทคโนโลยีแบบไม่จำกัด
  • ต่อมา OpenAI ได้ทำสัญญากับกระทรวงกลาโหมแทน โดย Sam Altman ระบุว่ามี มาตรการป้องกันตามเส้นแดง แบบเดียวกับที่ Anthropic เคยเรียกร้องรวมอยู่ด้วย
  • Amodei บอกพนักงานว่า Altman กำลังสร้างภาพให้ตัวเองเป็น "ผู้ไกล่เกลี่ยสันติภาพและนักปิดดีล" และระบุว่าข้อความสื่อสารของ OpenAI เป็น "คำโกหกอย่างชัดเจน"
  • หลังการทำสัญญานี้ จำนวนการลบ ChatGPT พุ่งขึ้น 295% สะท้อนว่ากระแสความเห็นสาธารณะมีท่าทีเป็นมิตรกับ Anthropic มากกว่า

เนื้อหาในบันทึกถึงพนักงานของ Dario Amodei

  • Amodei ใช้คำว่า "safety theater" ในบันทึกถึงพนักงานที่ The Information นำมารายงาน เพื่ออธิบายข้อตกลงของ OpenAI กับกระทรวงกลาโหม
  • เขาเขียนว่า "เหตุผลหลักที่ OpenAI ยอมรับสัญญานี้ในขณะที่เราปฏิเสธ ก็เพราะพวกเขาใส่ใจเรื่อง การปลอบพนักงาน ส่วนเราใส่ใจเรื่องการป้องกันการนำไปใช้ในทางที่ผิดจริงๆ"
  • เขายังกล่าวว่า Altman กำลังสร้างภาพตัวเองเป็น "ผู้ไกล่เกลี่ยสันติภาพและนักปิดดีล" พร้อมเรียกข้อความของ OpenAI ตรงๆ ว่า "straight up lies" หรือคำโกหกอย่างชัดเจน

ที่มาของการเจรจาที่ล้มเหลวระหว่าง Anthropic กับกระทรวงกลาโหม

  • Anthropic ปฏิเสธข้อเรียกร้องจากกระทรวงกลาโหมสหรัฐในการเจรจา ที่ต้องการ สิทธิ์เข้าถึงเทคโนโลยี AI แบบไม่จำกัด
    • บริษัทต้องการให้ DoD รับประกันว่าจะไม่นำ AI ของตนไปใช้กับ การเฝ้าระวังภายในประเทศขนาดใหญ่หรือการพัฒนาอาวุธอัตโนมัติ
    • เมื่อเงื่อนไขนี้ไม่ได้รับการยอมรับ จึงทำให้ สัญญามูลค่า 200 ล้านดอลลาร์ล่มลง
  • หลังจากนั้น DoD ได้ทำสัญญาใหม่กับ OpenAI
    • กระทรวงกลาโหมซึ่งเป็นที่รู้จักในชื่อ "Department of War" ภายใต้รัฐบาล Trump ได้ ทำสัญญากับ OpenAI แทน Anthropic
    • Sam Altman ระบุว่าสัญญาด้านกลาโหมฉบับใหม่มี มาตรการคุ้มครองตามเส้นแดงแบบเดียวกัน กับที่ Anthropic เคยเรียกร้อง
  • OpenAI ระบุในบล็อกโพสต์ว่า ระบบ AI ของบริษัทสามารถนำไปใช้ได้เพื่อ "all lawful purposes" หรือทุกวัตถุประสงค์ที่ชอบด้วยกฎหมาย
    • ตามบล็อกของ OpenAI ระบุว่า "ในการพูดคุยร่วมกัน กระทรวงกลาโหมชัดเจนว่ามองการเฝ้าระวังภายในประเทศขนาดใหญ่ว่าเป็นสิ่งผิดกฎหมาย และไม่มีแผนจะใช้เพื่อวัตถุประสงค์ดังกล่าว"
    • บริษัทอธิบายว่าสิ่งนี้ถูก ระบุไว้อย่างชัดเจนในสัญญา ว่าไม่อยู่ในขอบเขตการใช้งานที่ถูกกฎหมาย

ข้อคัดค้านเฉพาะของ Anthropic

  • Anthropic คัดค้านอย่างชัดเจนต่อข้อกำหนดที่ให้กระทรวงกลาโหมสามารถใช้ AI ของบริษัทได้ในลักษณะ "any lawful use" หรือทุกการใช้งานที่ชอบด้วยกฎหมาย
  • ฝ่ายวิจารณ์ชี้ว่า กฎหมายสามารถเปลี่ยนแปลงได้ และสิ่งที่ปัจจุบันผิดกฎหมายอาจกลายเป็นสิ่งที่ได้รับอนุญาตในอนาคต

ปฏิกิริยาจากสาธารณะและผลกระทบต่อตลาด

  • หลัง OpenAI ประกาศสัญญากับกระทรวงกลาโหม จำนวนการลบ ChatGPT พุ่งขึ้น 295%
    • สิ่งนี้สะท้อนว่าผู้คนมองสัญญาทางทหารของ OpenAI ว่า น่าสงสัยหรือขาดความโปร่งใส
  • Amodei เขียนในบันทึกว่า "ความพยายามในการ spin/gaslighting นี้ไม่ได้ผลนักกับสาธารณะหรือสื่อ และคนส่วนใหญ่มองข้อตกลงของ OpenAI ว่า น่าสงสัย พร้อมมองเราเป็นฝ่ายฮีโร่"

บรรยากาศภายในของ Anthropic

  • Amodei เน้นย้ำกับพนักงานว่า ต้องไม่ปล่อยให้ “ข้อความที่บิดเบือน” ของ OpenAI ส่งผลต่อพนักงานภายใน
  • เขาประเมินว่า กลยุทธ์ประชาสัมพันธ์ของ OpenAI ใช้ได้ผลกับผู้ใช้บางส่วนบนออนไลน์เท่านั้น แต่ล้มเหลวในการโน้มน้าวคนทั่วไป

3 ความคิดเห็น

 
jjpark78 2026-03-05

แล้วทำไมถึงบล็อก opencode ล่ะ.. ฮือ..

 
GN⁺ 2026-03-05
ความคิดเห็นจาก Hacker News
  • ตอนที่ @sama ประกาศภายในไม่กี่ชั่วโมงว่า OpenAI จะทำสัญญาในเงื่อนไขเดียวกันแทน Anthropic ก็รู้สึกชัดเจนว่า ไม่ DoW ก็ OAI ต้องมีฝ่ายหนึ่งบิดเบือนข้อเท็จจริงอยู่
    ถ้า DoW ปฏิเสธเงื่อนไขของ Anthropic เงื่อนไขของ OAI ก็น่าจะอยู่ในระดับที่ แทบจะบังคับใช้จริงไม่ได้
    พอได้อ่านจริง ๆ ก็ดูเหมือนเงื่อนไขแนว ๆ ว่า “DoW จะไม่ละเมิดกฎที่ตัวเองตั้งไว้”

    • ดูเหมือน OpenAI จะพยายามปกป้องตัวเองด้วยการหลบอยู่หลังถ้อยคำว่า “การใช้งานที่ถูกกฎหมายทั้งหมด
      Sam Altman บอกว่าจะฝังกฎไว้ในโมเดลสำหรับ DoD เพื่อป้องกันการใช้งานผิดวัตถุประสงค์ แต่นั่นก็แทบไม่ต่างจากการบอกว่าจะ解决 ปัญหา alignment ให้ได้ในระยะสั้น ซึ่งน่าเชื่อยาก
    • ผู้ใช้ ChatGPT ทั่วไปควรลบ GPT และลบบัญชีผ่าน พอร์ทัลความเป็นส่วนตัวของ OpenAI
    • ไม่ใช่แค่ Sam Altman เท่านั้น แต่ ความเคารพที่มีต่อ Paul Graham ก็หายไปหมดแล้ว
      เมื่อก่อนชอบบทความของเขา แต่ยิ่งนานไปก็ยิ่งรู้สึกว่าเขาขาดการทบทวนตัวเอง และมองเหมือนสตาร์ตอัปคือทุกอย่างของชีวิต
      รอบนี้ก็ผิดหวังมากที่เขาออกมาปกป้อง Altman ถ้าดู ทวีตของเขา จะเห็นว่าเขากำลังเมินความเป็นจริง
      อาจเป็นเพราะเขารู้สึกว่าตัวเองมีส่วนรับผิดชอบที่ทำให้ Altman เป็นที่รู้จักของโลก เลยวิจารณ์ไม่ได้
    • ดูเหมือนชะตาของ Dario จะถูกกำหนดไว้แล้ว โลกนี้ถูกปกครองด้วย อำนาจ ไม่ใช่ความรู้หรือความมั่งคั่ง
      วิศวกรส่วนใหญ่ไม่ได้เรียนปรัชญาการเมือง และเรื่องเล่าโบราณอย่าง “แหวนของ Gyges” ก็ยังใช้ได้เสมอ
    • ฉันเองก็คิดตั้งแต่แรกว่าไม่ DoW ก็ OAI ทั้งคู่กำลังปิดบังอะไรบางอย่างอยู่ มันชัดเกินไป น่าจะลองถาม ChatGPT ก่อนประกาศด้วยซ้ำ
  • เรื่องนี้มองเป็นแค่ประเด็นจริยธรรมอย่างเดียวไม่ได้ มันคือเรื่องของ เงินทุนมหาศาล
    การฝึกโมเดลระดับแนวหน้ามีต้นทุนมหาศาลแบบดาราศาสตร์ และมีเพียงหน่วยงานอย่าง DoD เท่านั้นที่จ่ายไหว
    การที่ Anthropic ปฏิเสธสัญญากับกระทรวงกลาโหมเพราะประเด็นความปลอดภัยถือเป็นการเดิมพันครั้งใหญ่ และหวังว่าแนวทาง “Constitutional AI” จะได้รับผลตอบแทนจากตลาด
    OpenAI อยากได้เงินจากกระทรวงกลาโหม แต่ก็ยังอยากรักษาภาพลักษณ์ที่เป็นมิตรกับผู้บริโภคไว้ ทว่าจับปลาสองมือไม่ได้

    • มูลค่าสัญญาอยู่ที่ราว 200 ล้านดอลลาร์ ซึ่งสำหรับบริษัทที่ทุ่มหลายพันล้านกับโครงสร้างพื้นฐานก็ไม่ได้ถือว่าเป็นเงินก้อนใหญ่มาก
      จากเรื่องนี้ Anthropic อาจทำรายได้เพิ่มขึ้นเสียอีก
      ความเสี่ยงที่แท้จริงคือถ้ารัฐบาลจัดให้ Anthropic เป็น ความเสี่ยงด้านซัพพลายเชน
    • มากกว่าจะเป็น “การต่อสู้ทางจริยธรรม” มันก็เป็น การต่อสู้ที่มีผลประโยชน์เดิมพันอยู่ ตามเคย
  • การที่ Anthropic ร่วมมือกับ Palantir แต่กลับคัดค้านการเฝ้าระวังของ DoD ดูเหมือนขัดแย้งกัน

    • แต่ Palantir ยอมรับ เงื่อนไขการจำกัดการใช้งาน ของ Anthropic ขณะที่ DoD ปฏิเสธ
      เมื่อดูจากที่ DoD ยกเลิกสัญญาแล้วไปทำสัญญาใหม่กับ OpenAI ก็ชัดเจนว่าระหว่างเงื่อนไขของสองบริษัทมีความต่างอย่างมีนัยสำคัญ
    • Palantir ไม่ใช่บริษัทเฝ้าระวังโดยตรงแบบ Flock แต่ให้บริการ แพลตฟอร์มบูรณาการข้อมูล
      ภายใต้สัญญารัฐบาล บริษัทจะรวมข้อมูลหลายประเภทเข้าด้วยกัน (รวมถึงข้อมูลการสืบสวนและความมั่นคง) แต่ไม่ได้เป็นผู้เก็บข้อมูลโดยตรง
      ดู บทความจาก Wired
    • เป็นไปได้ว่าสัญญากับ Palantir อาจยกเว้นการเฝ้าระวังภายในประเทศ และ Anthropic อาจตั้งเงื่อนไข “ห้ามใช้เพื่อการเฝ้าระวังภายในประเทศ” ไว้
    • จริง ๆ แล้ว Anthropic ก็ระบุข้อจำกัดไว้ชัดเจนแม้แต่ในการร่วมมือกับ Palantir ว่าจะไม่ใช้กับ “การออกแบบอาวุธ การเซ็นเซอร์ การเฝ้าระวังภายในประเทศ ข้อมูลเท็จ และปฏิบัติการไซเบอร์เชิงรุกที่เป็นอันตราย
      ดู บทความจาก TechCrunch
    • มีความเป็นไปได้สูงว่าสัญญากับ Palantir ก็มีเงื่อนไขคล้ายกัน การฟันธงว่าไม่มีดูแปลกมาก
  • บันทึกฉบับเต็มของ Dario ถูกเผยแพร่ ที่นี่

    • น่าตกใจที่ได้เห็น ความเป็นปฏิปักษ์อย่างเปิดเผย ระหว่างแล็บ AI ชั้นนำ
      มันไม่ใช่แค่การแข่งขันธรรมดา แต่ดูเป็น ความขัดแย้งทางอุดมการณ์
      แถมการเรียกพนักงาน OpenAI ว่า “พวกโง่ในทวิตเตอร์ที่หลอกง่าย” ก็เป็นทางเลือกที่ไม่ดีในแง่การดึงดูดบุคลากร
      ดู ทวีตตัวอย่าง
    • เวอร์ชันข้อความของบันทึกดูได้ที่ Pastebin เช่นกัน
    • Dario บอกว่า “การปั่นเรื่องและ gaslighting ของ OpenAI ใช้กับสาธารณะไม่ได้ผล” พร้อมย้ำว่าต้องไม่ให้พนักงาน OpenAI หลงเชื่อเรื่องเล่าของ Altman
  • @pg เคยบรรยาย @sama ว่าเป็น “คนที่ต่อให้ถูกปล่อยลงเกาะมนุษย์กินคน อีก 5 ปีต่อมาก็จะกลายเป็นราชาได้” แต่ตอนนี้ฟังดูเหมือน คำพูดเชิงสัญลักษณ์ของความทะยานอยากในอำนาจ
    Dario ดูเป็น คนที่จริงใจอย่างหาได้ยาก ในยุคนี้ หวังว่าเขาจะไม่หวั่นไหว

    • แต่ Anthropic ก็ร่วมมือกับ Palantir เช่นกัน จึงไม่ได้สะอาดหมดจด
      ท้ายที่สุดแล้วพวกเขาทั้งหมดก็เป็น บริษัทแสวงหากำไร และการที่ฝ่ายหนึ่งผิดไม่ได้แปลว่าอีกฝ่ายจะถูกโดยอัตโนมัติ
      ดู ประกาศอย่างเป็นทางการ
    • ถ้าดูว่า CEO สองคนนี้ใครกำลังพยายามใช้อิทธิพลนอกระบบต่อการตัดสินใจของรัฐบาล จะเห็นว่ามีเพียงฝ่ายเดียวที่กำลังพยายามขยายอำนาจจริง ๆ
      ยอมรับว่า Altman ปกป้อง Anthropic ในข้อกำหนด SCR แต่ก็เป็นเรื่องที่พื้นฐานมากจนแทบไม่ต้องชม
    • รู้สึกอึดอัดกับการยกย่อง Sam Altman เกินจริงมานานแล้ว การ บูชาโดยไร้คำวิจารณ์ น่าสงสัยเสมอ
      คำพูดนั้นฟังดูเป็นลบตั้งแต่แรกอยู่แล้ว และชุมชนนี้ก็ควรมี ความระแวงตามธรรมชาติต่อโครงสร้างลำดับชั้น มากกว่านี้
    • การทะเลาะกันออนไลน์ของ มหาเศรษฐี แบบนี้เหมือน UFC ฉบับวงการเทค ไม่มีเหตุผลอะไรที่คนทั่วไปต้องเลือกข้างอีกต่อไป
    • ไม่คิดเลยว่าคำว่า “พอมองย้อนกลับไปแล้ว?” จะฟังหนักหนาขนาดนี้
  • ที่จริงแล้วทั้งสองแล็บต่างก็เล่น ละครความปลอดภัย (safety theater)
    โดยยังแก้ปัญหา alignment ไม่ได้ แต่เพราะแรงกดดันจากตลาดจึงแข่งกันด้าน ความสามารถที่อันตราย

  • นี่คือ การเรียกร้องให้ลงมือทำ โดยยกเลิกการสมัคร OpenAI และลบบัญชี
    การไม่ทำอะไรเลยก็ ไม่ต่างจากการยินยอมโดยปริยาย

  • Sam Altman โกหกงั้นเหรอ? ตอนนี้ไม่เห็นน่าแปลกใจแล้ว

    • เขาเป็น คนที่เอาคำโกหกไปทับบนคำโกหกอีกชั้น
      ทำให้ผู้คนพึ่งพาเขามากขึ้นเรื่อย ๆ จนสุดท้ายจะไม่มีใครปลดเขาออกได้
  • OpenAI อยู่ในสภาพที่ต้อง พึ่งพาเงินสนับสนุนจากรัฐบาลเพื่อความอยู่รอด
    Sam และทีมผู้บริหารรับรู้วิกฤตแล้ว และต้องการเงินจากภาครัฐ

    • ใช่ กลยุทธ์ของ OpenAI คือการกลายเป็น บริษัทที่ใหญ่เกินกว่าจะล้มได้
      ยังมีการคำนวณทางการเมืองเพื่อพยุงตลาดไว้ก่อนการเลือกตั้งด้วย
      Nvidia, Micron, Oracle, Microsoft ล้วนพัวพันอยู่กับกระแสนี้
  • ได้ทำ เว็บไซต์ไทม์ไลน์ สรุปเหตุการณ์ล่าสุดระหว่าง Anthropic, OpenAI และรัฐบาลสหรัฐฯ ไว้แล้ว
    ลิงก์โพสต์ HN

 
nemorize 2026-03-05

DoD: กระทรวงกลาโหม
..W: ..สงคราม