- บริษัทวิจัยปัญญาประดิษฐ์ Anthropic ได้ถอนคำมั่นสำคัญในนโยบายความปลอดภัยหลักของบริษัทอย่าง Responsible Scaling Policy(RSP)
- เดิมบริษัทเคยให้คำมั่นว่าจะ หยุดการฝึกโมเดล AI หากยังไม่สามารถรับประกันมาตรการความปลอดภัยได้เพียงพอ แต่ข้อกำหนดนี้ถูกลบออกในนโยบายใหม่
- RSP ฉบับใหม่ให้คำมั่นเรื่อง การเพิ่มความโปร่งใส และ ความพยายามด้านความปลอดภัยในระดับเทียบเท่าหรือสูงกว่าคู่แข่ง พร้อมระบุว่าสามารถ “ชะลอ” การพัฒนาได้หากความเสี่ยงร้ายแรง
- บริษัทอธิบายว่าการเปลี่ยนแปลงครั้งนี้ไม่ได้เกิดจากแรงกดดันของตลาด แต่เป็น การตอบสนองต่อความเป็นจริงทางการเมืองและวิทยาศาสตร์
- ผู้เชี่ยวชาญมองว่ามาตรการครั้งนี้เป็นสัญญาณที่สะท้อนถึง การเตรียมพร้อมทางสังคมที่ยังไม่เพียงพอต่อความเสี่ยงหายนะจาก AI
ภูมิหลังของการเปลี่ยนแปลง RSP(Responsible Scaling Policy)
- ในปี 2023 Anthropic ได้ประกาศคำมั่นว่าจะ ไม่ฝึกระบบ AI หากยังพิสูจน์ไม่ได้ว่ามาตรการความปลอดภัยเพียงพอ
- นี่เป็นนโยบายหลักที่ช่วยตอกย้ำภาพลักษณ์ของบริษัทว่าให้ความสำคัญกับความปลอดภัยมากกว่าการแข่งขันในตลาด
- ล่าสุดบริษัทได้ปรับโครงสร้าง RSP ใหม่ทั้งหมด พร้อมถอนคำมั่นว่า จะไม่เปิดตัวโมเดลหากไม่มีการรับประกันความปลอดภัยล่วงหน้า
- Jared Kaplan(Chief Science Officer) กล่าวว่า “ความก้าวหน้าของ AI เร็วเกินไป จึงไม่สมจริงที่จะให้คำมั่นฝ่ายเดียว”
เนื้อหาสำคัญของนโยบายใหม่
- RSP ใหม่รวมถึง การขยายความโปร่งใสเกี่ยวกับความเสี่ยงด้านความปลอดภัยของ AI
- ระบุว่าจะเปิดเผยผลการทดสอบความปลอดภัยของโมเดล Anthropic เพิ่มเติม และจะรักษาหรือทำให้มาตรการความปลอดภัยอยู่ในระดับเทียบเท่าหรือสูงกว่าคู่แข่ง
- หากบริษัทอยู่ในแนวหน้าของการแข่งขัน AI และ ประเมินว่าความเสี่ยงหายนะมีสูง ก็อาจ ‘ชะลอ’ การพัฒนาได้
- อย่างไรก็ตาม เส้นจำกัดที่ชัดเจน แบบเดิมซึ่งห้ามการฝึกโมเดลที่เกินระดับหนึ่งได้หายไปแล้ว
บริบทอุตสาหกรรมของการเปลี่ยนนโยบาย
- ช่วงหลัง Anthropic สร้างผลงานเชิงพาณิชย์จากความสำเร็จของ Claude model และ Claude Code
- ในเดือนกุมภาพันธ์ 2026 มีรายงานว่าได้รับเงินลงทุน 3 หมื่นล้านดอลลาร์ มูลค่ากิจการราว 3.8 แสนล้านดอลลาร์ และอัตราการเติบโตของรายได้ต่อปี 10 เท่า
- โมเดลธุรกิจที่เน้น B2B ของบริษัทถูกประเมินว่ามีความน่าเชื่อถือมากกว่ากลยุทธ์ที่เน้นผู้บริโภคของ OpenAI
- Kaplan ย้ำว่าการเปลี่ยนแปลงครั้งนี้ไม่ใช่เพราะแรงกดดันของตลาด แต่เป็น การปรับเชิงปฏิบัติตามการเปลี่ยนแปลงของสภาพแวดล้อมทางการเมืองและวิทยาศาสตร์
ข้อจำกัดด้านกฎระเบียบและวิทยาศาสตร์
- ตอนที่ Anthropic นำ RSP มาใช้ บริษัทคาดหวังว่าบริษัทอื่นจะใช้มาตรการคล้ายกันด้วย แต่ สิ่งนั้นไม่เกิดขึ้น
- ยังมีทั้ง การขาดกฎหมายกำกับดูแล AI ในระดับรัฐบาลกลางของสหรัฐฯ, แนวโน้มผ่อนคลายกฎระเบียบ ของรัฐบาลทรัมป์ และ ความล้มเหลวของความร่วมมือระหว่างประเทศ
- ความซับซ้อนของวิทยาศาสตร์ด้านการประเมิน AI ก็ถูกชี้ว่าเป็นปัญหาเช่นกัน
- ในปี 2025 Anthropic ระบุว่าไม่อาจ ตัดความเป็นไปได้ที่โมเดลของตนจะถูกนำไปใช้ก่อการร้ายชีวภาพ ได้ แต่ยังขาดหลักฐานทางวิทยาศาสตร์ที่จะพิสูจน์เรื่องนี้
การหารือภายในและกระบวนการตัดสินใจ
- ตลอดเวลาประมาณ 1 ปี ฝ่ายบริหารได้หารือถึงแนวทางปรับ RSP ให้สอดคล้องกับสภาพแวดล้อมใหม่
- ประเด็นสำคัญคือหลักการก่อตั้งที่ว่า การวิจัยด้านความปลอดภัยของ AI จำเป็นต้องพัฒนาโมเดลแนวหน้าด้วยตนเอง
- ตามคำกล่าวของ Kaplan, CEO Dario Amodei มองว่า “หากคู่แข่งยังพัฒนาต่อไป แต่ Anthropic หยุดเพียงรายเดียว กลับอาจยิ่งอันตรายกว่า”
- ในคำนำของ RSP ใหม่ยังระบุว่า “หากปล่อยให้นักพัฒนาที่มีมาตรการป้องกันอ่อนแอที่สุดเป็นผู้กำหนดความเร็ว นักพัฒนาที่มีความรับผิดชอบจะสูญเสียความสามารถในการวิจัยด้านความปลอดภัย”
การประเมินจากภายนอกและข้อกังวล
- Chris Painter(METR policy director) มองว่าการเปลี่ยนแปลงครั้งนี้พอเข้าใจได้ แต่สะท้อนถึง การเตรียมพร้อมทางสังคมที่ยังไม่เพียงพอต่อความเสี่ยงหายนะจาก AI
- เขาระบุว่า Anthropic ได้เปลี่ยนไปสู่ “โหมดตอบสนองฉุกเฉิน(โหมดคัดแยกเร่งด่วน)” เพราะการประเมินความเสี่ยงและวิธีบรรเทาไม่ทันความเร็วของความก้าวหน้าทางเทคโนโลยี
- Painter ประเมินเชิงบวกต่อ การรายงานความเสี่ยงอย่างโปร่งใสและการเปิดเผยโรดแมปด้านความปลอดภัย ในนโยบายใหม่ แต่
- ก็แสดงความกังวลว่าการหายไปของ เกณฑ์หยุดแบบไบนารี(binary threshold) ใน RSP เดิม อาจก่อให้เกิด ‘เอฟเฟกต์ต้มกบ’ ที่ความเสี่ยงค่อย ๆ เพิ่มขึ้นโดยไม่ทันสังเกต
แผนในอนาคตและคำมั่นเรื่องการเปิดเผยข้อมูล
- Anthropic อธิบายว่า RSP ใหม่ยังคงรักษาข้อดีหลักของนโยบายเดิมไว้
- ในอดีต การจำกัดการเปิดตัวโมเดลทำหน้าที่เป็น แรงจูงใจที่ช่วยเร่งการพัฒนามาตรการบรรเทาด้านความปลอดภัย
- เพื่อคงแรงจูงใจนี้ไว้ นโยบายใหม่จึงมีแผนจะเผยแพร่ ‘Frontier Safety Roadmaps’ เป็นประจำ
- นอกจากนี้ยังมีแผนออก ‘Risk Reports’ ทุก 3~6 เดือน
- โดยจะรวมการประเมินความสามารถของโมเดล สถานการณ์ภัยคุกคาม มาตรการลดความเสี่ยง และระดับความเสี่ยงโดยรวม
- Kaplan เน้นว่า “หากคู่แข่งรับมือกับความเสี่ยงหายนะอย่างโปร่งใส Anthropic ก็จะรักษา มาตรฐานความปลอดภัยในระดับเทียบเท่าหรือสูงกว่า เช่นกัน”
2 ความคิดเห็น
ไม่ว่า Anthropic จะดื้อแค่ไหน สุดท้ายถ้ากระทรวงกลาโหมสหรัฐสั่งให้ทำ ก็คงต้องทำอยู่ดี ไม่ใช่ว่านี่เป็นเส้นทางที่ลงเอยแบบนี้มาตั้งแต่แรกแล้วหรือครับ
ความคิดเห็นจาก Hacker News
การที่ Anthropic บอกว่าเหตุผลที่ ถอนคำมั่นว่าจะหยุดฝึกโมเดล AI ก็เพราะ “คู่แข่งกำลังนำหน้าอยู่” ฟังดูเหมือนเป็นการยอมรับว่าท้ายที่สุดก็เรื่องเงิน
มันฟังคล้ายตรรกะแบบ “ถ้าทุกคนกำลังเตะหมา เราก็ต้องทำด้วย”
คนเคยเชื่อว่า Anthropic เป็น ‘บริษัทคนดี’ แต่สุดท้ายก็เหมือนกันหมด คือไล่ล่าแต่ กำไร
แต่ความเป็นจริงคือบริษัท AI ส่วนใหญ่อยู่ใต้ ‘รัฐบาลบนกระดาษ’
ไม่ใช่ปัญหาเฉพาะของบริษัท AI แต่ก็ไม่ได้แปลว่าจะเป็นเรื่องที่ยอมรับได้
นั่นจึงเป็นเหตุผลว่าทำไมกฎด้านความปลอดภัย สิ่งแวดล้อม และต่อต้านคอร์รัปชันจึงจำเป็น
ดูเหมือนวงจรแบบฉบับของสตาร์ตอัป AI
“มาสร้างคูเมืองเพื่อกอบกู้มนุษยชาติ” → “มาควบคุมคู่แข่งโอเพนซอร์สกัน” → “ความปลอดภัยเป็นอุปสรรคต่อผลประกอบการ Q3”
ทั้งที่จริงปิดอยู่ แต่กลับ gaslighting ว่า “เปิด”
ฉันเคยทำงานที่ Anthropic มาก่อน และคนอย่าง Jared Kaplan ก็เป็นคนที่จริงจังกับการหาสมดุลระหว่าง งานวิจัยด้านความปลอดภัยกับเทคโนโลยีแนวหน้า
แต่การตัดสินใจครั้งนี้น่าผิดหวัง ฉันเคยเชื่อว่า ‘Responsible Scaling Policy’ เป็น คำมั่นที่จับต้องได้ ว่าจะยังถูกยึดถือแม้ในสถานการณ์แบบนี้
คำมั่นนั้นทำให้ Anthropic ดูเป็น “แล็บที่อันตรายน้อยที่สุด” แต่ตอนนี้สัญญาณนั้นอ่อนลงแล้ว
ต่อจากนี้คงต้องกังวลว่าการ รักษาเก้าอี้ จะมาก่อนหลักการหรือไม่
ถึงอย่างนั้นถ้ายังมีคุณค่าเหลืออยู่บ้าง ฉันก็คิดว่าการมีอิทธิพลอยู่ท่ามกลางแล็บที่ไร้คุณค่าไปหมดก็ยังดีกว่า
ความรับผิดชอบทางศีลธรรม เป็นสิ่งที่เราทุกคนต้องร่วมกันแบกรับ
การที่บริษัทถอนสัญญาณนี้ด้วยตัวเอง หมายความว่าตอนนี้กำลังจะหันไปหาตลาดอีกแบบหนึ่ง
ผู้สมัครต้องเขียนเรียงความเรื่องความปลอดภัยของ AI แล้วทุกคนก็เล่นละครว่ากำลัง “กอบกู้โลก”
แต่พอเงินเข้ามาเกี่ยวจริง ๆ ตอนนี้กลับไม่มีใครพูดอะไร
เพราะโดยโครงสร้างแล้วบริษัทหนีสัญชาตญาณของ การเพิ่มกำไรสูงสุด ไม่พ้น
การตัดสินใจครั้งนี้คล้ายกับ ช่วงเวลาที่ Mozilla ยอมรับ DRM
ถึงจะไม่สมบูรณ์แบบ แต่ Anthropic ก็ยังอย่างน้อยพยายามแสดง ความรับผิดชอบ
เมื่อเทียบกับ OpenAI อย่างน้อยตอนนี้ก็ยังพอมีเหตุผลให้เชื่อใจได้อยู่
ชื่อบทความค่อนข้างเกินจริง ประเด็นถกเถียงครั้งนี้ไม่ใช่เรื่อง การเจรจากับ Pentagon แต่เป็นเรื่อง Responsible Scaling Policy 3.0 ที่ Anthropic เปิดเผย
ตรงกันข้าม มันอาจเป็น มาตรการเชิงป้องกัน ก็ได้
มีแรงกดดันจากรัฐบาลอยู่ แต่บทความไม่พูดถึงเลย
ข้อความที่ขึ้นต้นว่า “ตอนแรกไม่มีใครพูดอะไรตอนปล่อยโมเดลออกมาโดยไม่ตรวจสอบความปลอดภัย…” ฟังเหมือน นิทานเตือนภัย
สุดท้ายไม่มีใครเตรียมตัว และเมื่อปัญหาเกิดขึ้นก็สายเกินไปแล้ว
ปัญหาที่แท้จริงอยู่ในมิติของ การเมืองและวัฒนธรรม มากกว่าตัวเทคโนโลยี
การถอนคำมั่นด้านความปลอดภัยในจังหวะนี้มีนัยสำคัญ
บริษัทแบบนี้แม้จะยึดถือจรรยาบรรณ แต่ถ้า ผลกำไรถูกคุกคาม ก็พร้อมจะทิ้งทันที
เป้าหมายสุดท้ายก็คือ ลดทอนมูลค่าของแรงงานคอขาว
คำถามคือพวกเขาจะนำการเปลี่ยนผ่านนั้นอย่างมีจริยธรรมหรือจะย้ายความมั่งคั่งไปให้ผู้ถือหุ้น
เหมือนงูกินหางตัวเอง
แก่นแท้ของบริษัทคือการแสวงหากำไร ซึ่งตัวมันเองไม่ใช่เรื่องผิด แต่ ท่าทีทางศีลธรรม แบบนี้ทำให้รู้สึกหน้าซื่อใจคด
“Don’t be evil” ของ Google อยู่มาได้ 15 ปี แต่ Responsible Scaling Policy ของ Anthropic หายไปในเวลาแค่สองปีครึ่ง
ครึ่งชีวิตของอุดมคติ AI กำลังสั้นลงเรื่อย ๆ
แม้จะน่าเสียดายที่ Anthropic เปลี่ยนไป แต่ในทางปฏิบัติแล้ว ต่อให้เพื่อความปลอดภัยก็ห้ามตามหลังการแข่งขันมากเกินไป
ตอนนี้เป็นช่วงที่ต้องใช้ความเป็นปฏิบัตินิยม ต่อให้ภายหน้า Anthropic อาจ “กลายเป็นฝ่ายร้าย” แต่ตอนนี้ก็ยังเป็น ฝั่งที่ปลอดภัยที่สุด
การที่ซีอีโอ ปฏิเสธการใช้ AI เพื่อสงคราม ถูกมองในแง่บวก
ควรตื่นตัวก่อนที่จะสายเกินไป