14 คะแนน โดย GN⁺ 2026-02-26 | 2 ความคิดเห็น | แชร์ทาง WhatsApp
  • บริษัทวิจัยปัญญาประดิษฐ์ Anthropic ได้ถอนคำมั่นสำคัญในนโยบายความปลอดภัยหลักของบริษัทอย่าง Responsible Scaling Policy(RSP)
  • เดิมบริษัทเคยให้คำมั่นว่าจะ หยุดการฝึกโมเดล AI หากยังไม่สามารถรับประกันมาตรการความปลอดภัยได้เพียงพอ แต่ข้อกำหนดนี้ถูกลบออกในนโยบายใหม่
  • RSP ฉบับใหม่ให้คำมั่นเรื่อง การเพิ่มความโปร่งใส และ ความพยายามด้านความปลอดภัยในระดับเทียบเท่าหรือสูงกว่าคู่แข่ง พร้อมระบุว่าสามารถ “ชะลอ” การพัฒนาได้หากความเสี่ยงร้ายแรง
  • บริษัทอธิบายว่าการเปลี่ยนแปลงครั้งนี้ไม่ได้เกิดจากแรงกดดันของตลาด แต่เป็น การตอบสนองต่อความเป็นจริงทางการเมืองและวิทยาศาสตร์
  • ผู้เชี่ยวชาญมองว่ามาตรการครั้งนี้เป็นสัญญาณที่สะท้อนถึง การเตรียมพร้อมทางสังคมที่ยังไม่เพียงพอต่อความเสี่ยงหายนะจาก AI

ภูมิหลังของการเปลี่ยนแปลง RSP(Responsible Scaling Policy)

  • ในปี 2023 Anthropic ได้ประกาศคำมั่นว่าจะ ไม่ฝึกระบบ AI หากยังพิสูจน์ไม่ได้ว่ามาตรการความปลอดภัยเพียงพอ
    • นี่เป็นนโยบายหลักที่ช่วยตอกย้ำภาพลักษณ์ของบริษัทว่าให้ความสำคัญกับความปลอดภัยมากกว่าการแข่งขันในตลาด
  • ล่าสุดบริษัทได้ปรับโครงสร้าง RSP ใหม่ทั้งหมด พร้อมถอนคำมั่นว่า จะไม่เปิดตัวโมเดลหากไม่มีการรับประกันความปลอดภัยล่วงหน้า
  • Jared Kaplan(Chief Science Officer) กล่าวว่า “ความก้าวหน้าของ AI เร็วเกินไป จึงไม่สมจริงที่จะให้คำมั่นฝ่ายเดียว”

เนื้อหาสำคัญของนโยบายใหม่

  • RSP ใหม่รวมถึง การขยายความโปร่งใสเกี่ยวกับความเสี่ยงด้านความปลอดภัยของ AI
    • ระบุว่าจะเปิดเผยผลการทดสอบความปลอดภัยของโมเดล Anthropic เพิ่มเติม และจะรักษาหรือทำให้มาตรการความปลอดภัยอยู่ในระดับเทียบเท่าหรือสูงกว่าคู่แข่ง
  • หากบริษัทอยู่ในแนวหน้าของการแข่งขัน AI และ ประเมินว่าความเสี่ยงหายนะมีสูง ก็อาจ ‘ชะลอ’ การพัฒนาได้
  • อย่างไรก็ตาม เส้นจำกัดที่ชัดเจน แบบเดิมซึ่งห้ามการฝึกโมเดลที่เกินระดับหนึ่งได้หายไปแล้ว

บริบทอุตสาหกรรมของการเปลี่ยนนโยบาย

  • ช่วงหลัง Anthropic สร้างผลงานเชิงพาณิชย์จากความสำเร็จของ Claude model และ Claude Code
    • ในเดือนกุมภาพันธ์ 2026 มีรายงานว่าได้รับเงินลงทุน 3 หมื่นล้านดอลลาร์ มูลค่ากิจการราว 3.8 แสนล้านดอลลาร์ และอัตราการเติบโตของรายได้ต่อปี 10 เท่า
  • โมเดลธุรกิจที่เน้น B2B ของบริษัทถูกประเมินว่ามีความน่าเชื่อถือมากกว่ากลยุทธ์ที่เน้นผู้บริโภคของ OpenAI
  • Kaplan ย้ำว่าการเปลี่ยนแปลงครั้งนี้ไม่ใช่เพราะแรงกดดันของตลาด แต่เป็น การปรับเชิงปฏิบัติตามการเปลี่ยนแปลงของสภาพแวดล้อมทางการเมืองและวิทยาศาสตร์

ข้อจำกัดด้านกฎระเบียบและวิทยาศาสตร์

  • ตอนที่ Anthropic นำ RSP มาใช้ บริษัทคาดหวังว่าบริษัทอื่นจะใช้มาตรการคล้ายกันด้วย แต่ สิ่งนั้นไม่เกิดขึ้น
  • ยังมีทั้ง การขาดกฎหมายกำกับดูแล AI ในระดับรัฐบาลกลางของสหรัฐฯ, แนวโน้มผ่อนคลายกฎระเบียบ ของรัฐบาลทรัมป์ และ ความล้มเหลวของความร่วมมือระหว่างประเทศ
  • ความซับซ้อนของวิทยาศาสตร์ด้านการประเมิน AI ก็ถูกชี้ว่าเป็นปัญหาเช่นกัน
    • ในปี 2025 Anthropic ระบุว่าไม่อาจ ตัดความเป็นไปได้ที่โมเดลของตนจะถูกนำไปใช้ก่อการร้ายชีวภาพ ได้ แต่ยังขาดหลักฐานทางวิทยาศาสตร์ที่จะพิสูจน์เรื่องนี้

การหารือภายในและกระบวนการตัดสินใจ

  • ตลอดเวลาประมาณ 1 ปี ฝ่ายบริหารได้หารือถึงแนวทางปรับ RSP ให้สอดคล้องกับสภาพแวดล้อมใหม่
    • ประเด็นสำคัญคือหลักการก่อตั้งที่ว่า การวิจัยด้านความปลอดภัยของ AI จำเป็นต้องพัฒนาโมเดลแนวหน้าด้วยตนเอง
  • ตามคำกล่าวของ Kaplan, CEO Dario Amodei มองว่า “หากคู่แข่งยังพัฒนาต่อไป แต่ Anthropic หยุดเพียงรายเดียว กลับอาจยิ่งอันตรายกว่า”
  • ในคำนำของ RSP ใหม่ยังระบุว่า “หากปล่อยให้นักพัฒนาที่มีมาตรการป้องกันอ่อนแอที่สุดเป็นผู้กำหนดความเร็ว นักพัฒนาที่มีความรับผิดชอบจะสูญเสียความสามารถในการวิจัยด้านความปลอดภัย”

การประเมินจากภายนอกและข้อกังวล

  • Chris Painter(METR policy director) มองว่าการเปลี่ยนแปลงครั้งนี้พอเข้าใจได้ แต่สะท้อนถึง การเตรียมพร้อมทางสังคมที่ยังไม่เพียงพอต่อความเสี่ยงหายนะจาก AI
    • เขาระบุว่า Anthropic ได้เปลี่ยนไปสู่ “โหมดตอบสนองฉุกเฉิน(โหมดคัดแยกเร่งด่วน)” เพราะการประเมินความเสี่ยงและวิธีบรรเทาไม่ทันความเร็วของความก้าวหน้าทางเทคโนโลยี
  • Painter ประเมินเชิงบวกต่อ การรายงานความเสี่ยงอย่างโปร่งใสและการเปิดเผยโรดแมปด้านความปลอดภัย ในนโยบายใหม่ แต่
    • ก็แสดงความกังวลว่าการหายไปของ เกณฑ์หยุดแบบไบนารี(binary threshold) ใน RSP เดิม อาจก่อให้เกิด ‘เอฟเฟกต์ต้มกบ’ ที่ความเสี่ยงค่อย ๆ เพิ่มขึ้นโดยไม่ทันสังเกต

แผนในอนาคตและคำมั่นเรื่องการเปิดเผยข้อมูล

  • Anthropic อธิบายว่า RSP ใหม่ยังคงรักษาข้อดีหลักของนโยบายเดิมไว้
    • ในอดีต การจำกัดการเปิดตัวโมเดลทำหน้าที่เป็น แรงจูงใจที่ช่วยเร่งการพัฒนามาตรการบรรเทาด้านความปลอดภัย
    • เพื่อคงแรงจูงใจนี้ไว้ นโยบายใหม่จึงมีแผนจะเผยแพร่ ‘Frontier Safety Roadmaps’ เป็นประจำ
  • นอกจากนี้ยังมีแผนออก ‘Risk Reports’ ทุก 3~6 เดือน
    • โดยจะรวมการประเมินความสามารถของโมเดล สถานการณ์ภัยคุกคาม มาตรการลดความเสี่ยง และระดับความเสี่ยงโดยรวม
  • Kaplan เน้นว่า “หากคู่แข่งรับมือกับความเสี่ยงหายนะอย่างโปร่งใส Anthropic ก็จะรักษา มาตรฐานความปลอดภัยในระดับเทียบเท่าหรือสูงกว่า เช่นกัน”

2 ความคิดเห็น

 
tsboard 2026-02-26

ไม่ว่า Anthropic จะดื้อแค่ไหน สุดท้ายถ้ากระทรวงกลาโหมสหรัฐสั่งให้ทำ ก็คงต้องทำอยู่ดี ไม่ใช่ว่านี่เป็นเส้นทางที่ลงเอยแบบนี้มาตั้งแต่แรกแล้วหรือครับ

 
GN⁺ 2026-02-26
ความคิดเห็นจาก Hacker News
  • การที่ Anthropic บอกว่าเหตุผลที่ ถอนคำมั่นว่าจะหยุดฝึกโมเดล AI ก็เพราะ “คู่แข่งกำลังนำหน้าอยู่” ฟังดูเหมือนเป็นการยอมรับว่าท้ายที่สุดก็เรื่องเงิน
    มันฟังคล้ายตรรกะแบบ “ถ้าทุกคนกำลังเตะหมา เราก็ต้องทำด้วย”
    คนเคยเชื่อว่า Anthropic เป็น ‘บริษัทคนดี’ แต่สุดท้ายก็เหมือนกันหมด คือไล่ล่าแต่ กำไร

    • Anthropic ไม่อาจเป็นตัวแทนของเหตุผลยั้งคิดของตลาดได้ บทบาทนั้นควรเป็นของ ระบบกำกับดูแลและการตรวจสอบของภาครัฐ
      แต่ความเป็นจริงคือบริษัท AI ส่วนใหญ่อยู่ใต้ ‘รัฐบาลบนกระดาษ’
    • จริง ๆ แล้วแนวคิดว่า “ขอแค่ชนะก็พอ” เป็นความจริงร่วมของแทบทุกอุตสาหกรรม
      ไม่ใช่ปัญหาเฉพาะของบริษัท AI แต่ก็ไม่ได้แปลว่าจะเป็นเรื่องที่ยอมรับได้
    • ถ้าสุดท้ายเงินคือทุกอย่าง ฉันก็จะ โหวตด้วยกระเป๋าเงิน และยกเลิกสมาชิก Max
    • ถ้าปล่อยให้การแข่งขันดำเนินไปโดยไร้การกำกับ สุดท้ายทุกบริษัทที่ประสบความสำเร็จก็จะก่อ การฉ้อโกงและความเสียหาย
      นั่นจึงเป็นเหตุผลว่าทำไมกฎด้านความปลอดภัย สิ่งแวดล้อม และต่อต้านคอร์รัปชันจึงจำเป็น
  • ดูเหมือนวงจรแบบฉบับของสตาร์ตอัป AI
    “มาสร้างคูเมืองเพื่อกอบกู้มนุษยชาติ” → “มาควบคุมคู่แข่งโอเพนซอร์สกัน” → “ความปลอดภัยเป็นอุปสรรคต่อผลประกอบการ Q3”

    • ท้ายที่สุดมันก็ลงเอยที่การประกาศทำนองว่า “งบประมาณ Pentagon สำคัญกว่าความปลอดภัย”
    • หลังจากกลายเป็นผู้ครองตลาดแล้ว พวกเขาก็จะผลักดันให้รัฐออกกฎผ่านองค์กรไม่แสวงกำไรที่ตนเองสนับสนุน
    • สิ่งที่น่าตกใจก็คือการเปลี่ยนแปลงนี้เกิดขึ้น เร็วเกินไปมาก
    • ไม่ใช่แค่ AI บริษัทอื่น ๆ ที่ชูคำว่า “open” ก็คล้ายกัน
      ทั้งที่จริงปิดอยู่ แต่กลับ gaslighting ว่า “เปิด”
    • นักการเมืองเองก็ชอบกฎระเบียบ โดยเฉพาะถ้ามีไวน์กับสเต๊กเสิร์ฟคู่กัน เป็นคำวิจารณ์ปนประชด
  • ฉันเคยทำงานที่ Anthropic มาก่อน และคนอย่าง Jared Kaplan ก็เป็นคนที่จริงจังกับการหาสมดุลระหว่าง งานวิจัยด้านความปลอดภัยกับเทคโนโลยีแนวหน้า
    แต่การตัดสินใจครั้งนี้น่าผิดหวัง ฉันเคยเชื่อว่า ‘Responsible Scaling Policy’ เป็น คำมั่นที่จับต้องได้ ว่าจะยังถูกยึดถือแม้ในสถานการณ์แบบนี้
    คำมั่นนั้นทำให้ Anthropic ดูเป็น “แล็บที่อันตรายน้อยที่สุด” แต่ตอนนี้สัญญาณนั้นอ่อนลงแล้ว
    ต่อจากนี้คงต้องกังวลว่าการ รักษาเก้าอี้ จะมาก่อนหลักการหรือไม่

    • คำพูดอย่าง “หวังว่าจะขับเคลื่อนตามคุณค่า” อาจเป็นความคาดหวังที่ ไร้เดียงสา เกินไป
      ถึงอย่างนั้นถ้ายังมีคุณค่าเหลืออยู่บ้าง ฉันก็คิดว่าการมีอิทธิพลอยู่ท่ามกลางแล็บที่ไร้คุณค่าไปหมดก็ยังดีกว่า
    • ถ้ายังไม่ยอมสละ RSU (ค่าตอบแทนเป็นหุ้น) ก็ยากจะคาดหวังให้ผู้บริหารทำเช่นนั้นได้
      ความรับผิดชอบทางศีลธรรม เป็นสิ่งที่เราทุกคนต้องร่วมกันแบกรับ
    • คำมั่นนี้อาจไม่มีผลผูกพันทางกฎหมาย แต่ก็มีความหมายในฐานะ สัญญาณที่ส่งไปยังตลาด
      การที่บริษัทถอนสัญญาณนี้ด้วยตัวเอง หมายความว่าตอนนี้กำลังจะหันไปหาตลาดอีกแบบหนึ่ง
    • ฉันเคยสัมภาษณ์งานกับ Anthropic เมื่อปีที่แล้ว และมันให้ความรู้สึกเหมือน การแสดงโชว์เรื่องจริยธรรม
      ผู้สมัครต้องเขียนเรียงความเรื่องความปลอดภัยของ AI แล้วทุกคนก็เล่นละครว่ากำลัง “กอบกู้โลก”
      แต่พอเงินเข้ามาเกี่ยวจริง ๆ ตอนนี้กลับไม่มีใครพูดอะไร
    • หลักการแบบนี้สุดท้ายรักษาไว้ได้แค่ใน ระดับภาครัฐ
      เพราะโดยโครงสร้างแล้วบริษัทหนีสัญชาตญาณของ การเพิ่มกำไรสูงสุด ไม่พ้น
  • การตัดสินใจครั้งนี้คล้ายกับ ช่วงเวลาที่ Mozilla ยอมรับ DRM
    ถึงจะไม่สมบูรณ์แบบ แต่ Anthropic ก็ยังอย่างน้อยพยายามแสดง ความรับผิดชอบ
    เมื่อเทียบกับ OpenAI อย่างน้อยตอนนี้ก็ยังพอมีเหตุผลให้เชื่อใจได้อยู่

  • ชื่อบทความค่อนข้างเกินจริง ประเด็นถกเถียงครั้งนี้ไม่ใช่เรื่อง การเจรจากับ Pentagon แต่เป็นเรื่อง Responsible Scaling Policy 3.0 ที่ Anthropic เปิดเผย

    • แน่นอนว่ายังสรุปไม่ได้ว่าทั้งสองเรื่องไม่เกี่ยวข้องกันเลย
      ตรงกันข้าม มันอาจเป็น มาตรการเชิงป้องกัน ก็ได้
    • อันที่จริงฉันคิดว่าการเปลี่ยนนโยบายครั้งนี้เป็น ความเปลี่ยนแปลงที่สำคัญกว่า ประเด็น Pentagon เสียอีก
  • มีแรงกดดันจากรัฐบาลอยู่ แต่บทความไม่พูดถึงเลย

    • ตามรายงานที่เกี่ยวข้อง มีการยืนยันแล้วว่า Hegseth พบกับ Dario Amodei ซีอีโอของ Anthropic
    • เลยมีความเห็นว่าคงเป็นเหตุผลที่ได้ข่าวเอ็กซ์คลูซีฟ
    • บางคนมองว่านี่คือ การผลิตความยินยอมของสาธารณะ (Consent manufacturing)
    • มีเสียงวิจารณ์ว่าบทความไม่แม้แต่จะเอ่ยชื่อ Hegseth
  • ข้อความที่ขึ้นต้นว่า “ตอนแรกไม่มีใครพูดอะไรตอนปล่อยโมเดลออกมาโดยไม่ตรวจสอบความปลอดภัย…” ฟังเหมือน นิทานเตือนภัย
    สุดท้ายไม่มีใครเตรียมตัว และเมื่อปัญหาเกิดขึ้นก็สายเกินไปแล้ว

    • การเพิกเฉยร่วมกัน แบบนี้เป็นปัญหาเรื้อรังของสังคมมนุษย์
    • มีคำเตือนมากพออยู่แล้ว แต่ผู้คนติดอยู่กับ ความโลภและความคิดระยะสั้น
    • ถ้าจะพูดแบบสไตล์ HN สุดท้ายเราทุกคนก็เป็น ผู้สมรู้ร่วมคิด ของระบบนั้น
    • บางคนก็บอกว่ามันฟังดูเหมือนบทเปิดของ เรื่องราวแบบ Terminator
    • แต่ในความเป็นจริง สถานการณ์ที่ AI หลุดการควบคุมยังอีกไกล
      ปัญหาที่แท้จริงอยู่ในมิติของ การเมืองและวัฒนธรรม มากกว่าตัวเทคโนโลยี
  • การถอนคำมั่นด้านความปลอดภัยในจังหวะนี้มีนัยสำคัญ
    บริษัทแบบนี้แม้จะยึดถือจรรยาบรรณ แต่ถ้า ผลกำไรถูกคุกคาม ก็พร้อมจะทิ้งทันที
    เป้าหมายสุดท้ายก็คือ ลดทอนมูลค่าของแรงงานคอขาว
    คำถามคือพวกเขาจะนำการเปลี่ยนผ่านนั้นอย่างมีจริยธรรมหรือจะย้ายความมั่งคั่งไปให้ผู้ถือหุ้น

    • จังหวะเวลานี้อาจเป็น สัญญาณเปิดฉากของแรงกดดันจากรัฐบาล
    • แต่ถ้าชนชั้นกลางพังลง ในที่สุด ฐานผู้บริโภค ก็จะหายไปด้วย
      เหมือนงูกินหางตัวเอง
    • คำขวัญอย่าง “Don’t be evil” ท้ายที่สุดก็เป็นแค่ ฉากบังหน้าเพื่อผลกำไร
      แก่นแท้ของบริษัทคือการแสวงหากำไร ซึ่งตัวมันเองไม่ใช่เรื่องผิด แต่ ท่าทีทางศีลธรรม แบบนี้ทำให้รู้สึกหน้าซื่อใจคด
  • “Don’t be evil” ของ Google อยู่มาได้ 15 ปี แต่ Responsible Scaling Policy ของ Anthropic หายไปในเวลาแค่สองปีครึ่ง
    ครึ่งชีวิตของอุดมคติ AI กำลังสั้นลงเรื่อย ๆ

  • แม้จะน่าเสียดายที่ Anthropic เปลี่ยนไป แต่ในทางปฏิบัติแล้ว ต่อให้เพื่อความปลอดภัยก็ห้ามตามหลังการแข่งขันมากเกินไป
    ตอนนี้เป็นช่วงที่ต้องใช้ความเป็นปฏิบัตินิยม ต่อให้ภายหน้า Anthropic อาจ “กลายเป็นฝ่ายร้าย” แต่ตอนนี้ก็ยังเป็น ฝั่งที่ปลอดภัยที่สุด

    • ก็มีคนถามเหมือนกันว่าทำไมถึงไว้ใจ Anthropic มากขนาดนั้น
      การที่ซีอีโอ ปฏิเสธการใช้ AI เพื่อสงคราม ถูกมองในแง่บวก
    • แต่การเปลี่ยนแปลงแบบนี้ก็อาจเป็น สัญญาณว่ากำลังเริ่มกลายเป็นฝ่ายร้าย แล้วเหมือนกัน
      ควรตื่นตัวก่อนที่จะสายเกินไป
    • ก็มีปฏิกิริยาแบบเสียดสีว่า โลกกำลังพังเพราะพวกปฏิบัตินิยมนี่แหละ