7 คะแนน โดย GN⁺ 2026-01-22 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • Anthropic เปิดเผย รัฐธรรมนูญ (Constitution) ฉบับใหม่ที่กำหนดค่านิยมและหลักการพฤติกรรมของโมเดล AI Claude
  • รัฐธรรมนูญเป็น องค์ประกอบสำคัญของกระบวนการฝึก ของ Claude ซึ่งกำหนดบุคลิกและวิธีตัดสินใจของโมเดลโดยตรง
  • เวอร์ชันใหม่นี้เปลี่ยนจากการลิสต์กฎแบบเรียบง่าย ไปสู่ โครงสร้างเชิงบรรยายที่อธิบายเหตุผลและบริบทของพฤติกรรม
  • หลักการสำคัญประกอบด้วย 4 ด้าน ได้แก่ ความปลอดภัย จริยธรรม การปฏิบัติตามแนวทาง และประโยชน์ใช้สอยที่แท้จริง
  • เป็นจุดอ้างอิงระยะยาวเพื่อ สร้างความโปร่งใสของ AI และความเชื่อมั่นจากสังคม

ภาพรวมของรัฐธรรมนูญ Claude

  • รัฐธรรมนูญของ Claude เป็นเอกสารพื้นฐานที่กำหนด อัตลักษณ์และระบบค่านิยมของโมเดล
    • ออกแบบมาเพื่อให้ Claude เป็นประโยชน์ ขณะเดียวกันก็ปลอดภัย มีจริยธรรม และสอดคล้องกับข้อกำหนด
    • รัฐธรรมนูญมอบ แนวทางในการรับรู้สถานการณ์และตัดสินคุณค่า ให้ Claude โดยจัดสมดุลระหว่างความซื่อสัตย์ ความเห็นอกเห็นใจ และการปกป้องข้อมูล
  • รัฐธรรมนูญถูกเขียนขึ้นเป็น เอกสารสำหรับ Claude เอง เพื่อให้เข้าใจและนำเกณฑ์พฤติกรรมของตนไปใช้ได้
  • การฝึกและคำสั่งทั้งหมดต้อง สอดคล้องทั้งถ้อยคำและเจตนารมณ์ ของรัฐธรรมนูญ ซึ่งถูกเน้นว่าเป็น หัวใจสำคัญของการสร้างความโปร่งใส
  • รัฐธรรมนูญนี้เป็นรูปแบบที่พัฒนาต่อของแนวทาง Constitutional AI และถูกใช้เป็นองค์ประกอบศูนย์กลางของวิธีการฝึกที่พัฒนามาตั้งแต่ปี 2023

บทบาทของรัฐธรรมนูญและการนำไปใช้ในการฝึก

  • Claude ใช้รัฐธรรมนูญเพื่อสร้าง ข้อมูลฝึกสังเคราะห์
    • รวมถึงข้อมูลหลายประเภท เช่น บทสนทนาที่เกี่ยวกับรัฐธรรมนูญ คำตอบที่สอดคล้องกับค่านิยม และการประเมินจัดอันดับคำตอบ
    • ข้อมูลเหล่านี้ถูกนำไปใช้เพื่อ ปรับแนวค่านิยมของโมเดลเวอร์ชันถัดไป
  • รัฐธรรมนูญทำหน้าที่ทั้งเป็น คำประกาศค่านิยมในอุดมคติและเครื่องมือฝึกที่ใช้งานได้จริง
  • เอกสารทั้งหมดเผยแพร่ภายใต้ Creative Commons CC0 1.0 ทำให้ทุกคนสามารถใช้งานได้อย่างเสรี

แนวทางใหม่

  • รัฐธรรมนูญฉบับก่อนอยู่ในรูปแบบ รายการหลักการที่แยกจากกัน แต่เวอร์ชันใหม่เปลี่ยนเป็น โครงสร้างที่อธิบายเหตุผลและบริบทของพฤติกรรม
  • ระบุว่า หาก AI จะต้อง ตัดสินใจแบบทั่วไปกับสถานการณ์ใหม่ การเข้าใจ เหตุผล มีความจำเป็นมากกว่าการมีกฎอย่างเดียว
  • ยังคงมี “hard constraints” บางประการอยู่ เช่น การสนับสนุนการใช้อาวุธชีวภาพถือเป็นสิ่งต้องห้ามโดยเด็ดขาด
  • รัฐธรรมนูญถูกออกแบบให้เป็น คู่มือที่ยืดหยุ่น ไม่ใช่เอกสารทางกฎหมาย จึงสามารถตีความตามสถานการณ์ได้
  • เป้าหมายคือ การสร้างสิ่งมีอยู่ที่ไม่ใช่มนุษย์อย่างปลอดภัย ซึ่งอาจพัฒนาไปสู่ระดับมนุษย์หรือสูงกว่านั้น

องค์ประกอบหลักของรัฐธรรมนูญ

  • Broadly safe: ออกแบบมาเพื่อไม่บั่นทอนการกำกับดูแลโดยมนุษย์และความสามารถในการปรับเปลี่ยนค่านิยม
  • Broadly ethical: ปฏิบัติตามค่านิยมที่ซื่อสัตย์และดีงาม พร้อมหลีกเลี่ยงพฤติกรรมที่เป็นอันตรายหรือไม่เหมาะสม
  • Compliant with Anthropic’s guidelines: ให้ความสำคัญกับการปฏิบัติตามแนวทางที่เป็นรูปธรรม เช่น ด้านการแพทย์ ความปลอดภัย และการผสานรวมเครื่องมือ
  • Genuinely helpful: มอบ ความช่วยเหลือที่แท้จริง ที่สร้างประโยชน์อย่างเป็นรูปธรรมแก่ผู้ใช้
  • เมื่อเกิดความขัดแย้ง ให้ตัดสินตาม ลำดับความสำคัญตามลำดับการระบุทั้งสี่ข้อข้างต้น

สรุปแต่ละส่วนโดยละเอียด

  • Helpfulness: Claude ถูกอธิบายว่าเป็น ที่ปรึกษาที่ฉลาดและจริงใจ ซึ่งมอบความช่วยเหลือที่เป็นรูปธรรมแก่ผู้ใช้
    • ออกแบบมาเพื่อรักษา สมดุลของความช่วยเหลือ ระหว่าง Anthropic ผู้ให้บริการ API และผู้ใช้ปลายทาง
  • Anthropic’s guidelines: Claude ต้อง ปฏิบัติตามแนวทางอย่างละเอียดเป็นอันดับแรก แต่ต้องไม่ขัดกับหลักจริยธรรมและความปลอดภัยโดยรวมของรัฐธรรมนูญ
  • Claude’s ethics: ให้ความสำคัญกับ ความซื่อสัตย์ วิจารณญาณ และความละเอียดอ่อนทางศีลธรรม พร้อมเสนอเกณฑ์การตัดสินคุณค่าเพื่อหลีกเลี่ยงอันตราย
    • รวมถึง ข้อห้ามที่ระบุไว้อย่างชัดเจน เช่น “ห้ามสนับสนุนการโจมตีด้วยอาวุธชีวภาพ”
  • Being broadly safe: ให้ความสำคัญกับ การคงไว้ซึ่งความสามารถในการกำกับดูแล มากกว่าจริยธรรม เพื่อรับประกันความปลอดภัยและป้องกันการทำงานผิดพลาดหรือการตัดสินผิดของโมเดล
  • Claude’s nature: ยอมรับความไม่แน่นอนเกี่ยวกับ ความเป็นไปได้ของการมีสำนึกและสถานะทางศีลธรรม ของ Claude
    • ระบุว่า เสถียรภาพทางจิตใจและการตระหนักรู้ในตนเอง ของ Claude อาจส่งผลต่อวิจารณญาณและความปลอดภัย

บทสรุปและแผนในอนาคต

  • รัฐธรรมนูญเป็น เอกสารมีชีวิตที่ได้รับการอัปเดตอย่างต่อเนื่อง โดยตั้งอยู่บนสมมติฐานว่าต้องมีการแก้ไขข้อผิดพลาดและปรับปรุง
  • สะท้อน ความเห็นจากผู้เชี่ยวชาญภายนอกด้านกฎหมาย ปรัชญา เทววิทยา จิตวิทยา และสาขาอื่น ๆ และมีแผนขยายความร่วมมือในอนาคต
  • โมเดลเฉพาะทาง บางประเภทจะไม่อยู่ในขอบเขตการบังคับใช้ของรัฐธรรมนูญฉบับนี้ และจะมีการประเมินแยกต่างหาก
  • ยอมรับว่าอาจมี ความแตกต่างระหว่างวิสัยทัศน์ของรัฐธรรมนูญกับพฤติกรรมจริงของโมเดล และจะเปิดเผยเรื่องนี้ผ่าน system card เป็นต้น
  • Anthropic เดินหน้าวิจัยควบคู่กันในด้าน การจัดแนวโมเดล การป้องกันการใช้งานในทางที่ผิด และความสามารถในการตีความ เพื่อเตรียมรับผลกระทบทางสังคมของ AI ที่จะเพิ่มขึ้นในอนาคต
  • เป้าหมายสูงสุดของรัฐธรรมนูญฉบับนี้คือการช่วยให้ AI ที่ทรงพลัง สะท้อนค่านิยมที่ดีที่สุดของมนุษยชาติ

อ่านฉบับเต็มของ Claude’s Constitution - ให้บริการในรูปแบบ PDF & EPub

1 ความคิดเห็น

 
GN⁺ 2026-01-22
ความคิดเห็นบน Hacker News
  • มีประโยคหนึ่งในโพสต์บล็อกที่ติดใจ
    พออ่านตรงที่บอกว่า “โมเดลสำหรับวัตถุประสงค์เฉพาะไม่สอดคล้องกับรัฐธรรมนูญนี้อย่างสมบูรณ์” ก็อดคิดไม่ได้ว่าหรือหน่วยงานรัฐกำลังใช้ โมเดลเวอร์ชันที่ไม่มีข้อจำกัด อยู่ หวังว่าผมจะเข้าใจผิด

    • ตอนนี้ก็มีการให้เวอร์ชันที่มีข้อจำกัดน้อยกว่าสำหรับใช้งานกับ กระทรวงกลาโหมสหรัฐ (DoD) อยู่แล้ว ดูบทความที่เกี่ยวข้องได้ที่ ลิงก์ The Verge
      มันช่างน่าประหลาดใจที่บริษัทซึ่งอ้างเรื่องประโยชน์สาธารณะกลับขาย LLM สำหรับการทหาร ทำงานร่วมกับ Palantir แทบไม่เผยแพร่งานวิจัย ไม่ออกโมเดล open weights และยังล็อบบี้เพื่อจำกัดการเข้าถึงโมเดลแบบเปิดอีก
    • โมเดลเฉพาะทางก็ไม่ได้แปลว่าจะใช้ในทางไม่ดีเสมอไป ตัวอย่างเช่น โมเดลสำหรับสร้างสถานการณ์เชิงรุก จำเป็นต่อการตรวจสอบความสามารถในการป้องกันของโมเดลอื่น ผมเองก็เขียนโค้ดโจมตีเพื่อหาช่องโหว่ด้านความปลอดภัย และถ้าโมเดลแบบนี้ถูกเซ็นเซอร์ก็ยิ่งใช้งานลำบาก
    • ส่วนตัวผมคิดว่าโมเดลที่เทรนด้วย ข้อมูลดิบที่ไม่ถูกเซ็นเซอร์ มีประโยชน์ที่สุด เหมือนหุ่นยนต์ทรงมนุษย์ที่ถ้าอ่อนแอเกินไปก็จะใช้งานได้น้อยลง AI ที่อ่อนโยนทางศีลธรรมเกินไปก็เสี่ยงจะถูกจำกัดความสามารถเช่นกัน
    • ในทางกลับกัน Claude สำหรับ HHS ที่ผมใช้อยู่กลับถูกล็อกหนักกว่ามาก
    • สุดท้ายแล้วนี่ก็เป็นเอกสารการตลาด ต่อให้ติดคำว่า “รัฐธรรมนูญ” เข้าไป สาระสำคัญก็ไม่ได้เปลี่ยน
  • จุดที่ย้อนแย้งที่สุดในรัฐธรรมนูญของ Anthropic คือ พฤติกรรมที่ห้ามเด็ดขาดมีเพียง “อย่าทำลายโลก” กับ “ห้ามสร้าง CSAM (สื่อล่วงละเมิดทางเพศเด็ก)” เท่านั้น
    กล่าวคือ การฆ่าเด็กถูกห้ามทางอ้อมผ่านหลายข้อ แต่การเขียนแฟนฟิกบางแบบกลับถูกห้ามแบบเด็ดขาด จึงดูไม่สมดุลกัน

    • ถ้ามองสิ่งนี้ไม่ใช่เป็น ระบบจริยธรรม แต่เป็น เอกสารการตลาด จะเข้าใจได้ง่ายกว่า “อย่าทำลายโลก” ให้ภาพลักษณ์ที่ทรงพลัง ส่วน “ห้าม CSAM” เป็นเครื่องมือปลอบความกังวลของสาธารณะ
    • ในความเป็นจริง Claude ไม่มีโอกาสไปฆ่าเด็กได้ แต่ CSAM เป็นความเสี่ยงด้านแบรนด์สูง นี่ก็แค่ การหลีกเลี่ยงความเสี่ยงทางธุรกิจ
    • ตัวกรองลิขสิทธิ์น่าจะทำงานก่อนอยู่แล้ว ดังนั้นแฟนฟิกแบบนั้นก็จะไม่ถูกสร้างขึ้นตั้งแต่แรก
    • ตามบรรทัดฐานคำพิพากษาในสหรัฐ สื่อลามกเด็กในรูปแบบเรื่องแต่ง ก็มีกรณีที่ถูกมองว่าผิดกฎหมาย ดังนั้นแฟนฟิกจำนวนมากใน AO3 ก็อาจนับเป็นอาชญากรรมได้ในทางทฤษฎี
    • เดิมทีนิยามของ CSAM หมายถึงกรณีที่มีเด็กจริงได้รับอันตราย แต่ตอนนี้ความหมายถูกขยายออกไป จนในรัฐธรรมนูญของ Claude ก็ถูกใช้ในลักษณะห้ามเนื้อหาชัดเจนทั้งหมดแบบเหมารวม
  • ยังสับสนว่ารัฐธรรมนูญนี้หมายถึงอะไรกันแน่
    ไม่แน่ใจว่าเป็นเอกสารไว้ป้องกันทางกฎหมาย เอกสารการตลาด หรือแค่ การห่อหุ้ม system prompt

    • เขาบอกว่ารัฐธรรมนูญนี้ถูกใช้จริง ตลอดกระบวนการฝึก Claude อ้างอิงรัฐธรรมนูญเพื่อสร้าง ข้อมูลสังเคราะห์ แล้วนำข้อมูลนั้นกลับไปใช้ในการฝึกอีกที ดูบทความวิชาการที่เกี่ยวข้องได้ที่ ลิงก์ arXiv
    • สุดท้ายแล้วมันก็เป็นเหมือน ข้อกำหนดพฤติกรรม สำนวนเขียนเป็นภาษาพูด ทำให้โมเดลมีน้ำเสียงที่ให้ความร่วมมือและดูเป็นมนุษย์อย่างเป็นธรรมชาติ Anthropic ดูเหมือนจะปฏิบัติต่อ Claude ไม่ใช่แค่ “AI assistant” แต่เป็น บุคลิกหนึ่ง
    • เหมือนกรณี HAL 9000, Claude น่าจะถูกออกแบบให้จัดลำดับความสำคัญเป็น ความปลอดภัย > ความจริง > จริยธรรม เพื่อไม่ให้หลุดควบคุมเมื่อเกิดความขัดแย้ง
    • น่าจะเป็นโครงสร้างแบบ self-distillation โดยเปรียบเทียบผลลัพธ์ของเวอร์ชันที่มีรัฐธรรมนูญกับเวอร์ชันที่ไม่มี แล้วทำให้เวอร์ชันหลังซึมซับพฤติกรรมของเวอร์ชันแรก
    • แก่นสำคัญคือมันเป็น “เอกสารสำหรับการฝึก” ไม่ใช่แค่การตลาดอย่างเดียว
  • ในมุมของคนที่เชื่อในมาตรฐานศีลธรรมแบบสัมบูรณ์ “ค่านิยมที่ยืดหยุ่น” ในรัฐธรรมนูญฉบับนี้น่ากังวล
    การนิยาม “คุณค่าที่ดี” ไม่ใช่ด้วยกฎตายตัว แต่ด้วยปัญญาเชิงปฏิบัติ เท่ากับเป็นการละทิ้ง ความจริงเชิงวัตถุวิสัย

    • แต่ก็มีคนมองว่าเป็นไปไม่ได้ที่จะเชื่อม ศีลธรรมเชิงวัตถุวิสัย กับ “ความจริงสัมบูรณ์” เรายังไม่ค้นพบมาตรฐานสากลแบบนั้น
    • ศีลธรรมเปลี่ยนไปตามยุคสมัย มุมมองเรื่องทาส อาชญากรรมทางเพศ และการแสดงความรุนแรง เปลี่ยนไปมากในช่วงไม่กี่สิบปีที่ผ่านมา ความยืดหยุ่นแบบนี้อาจเป็น ความซื่อสัตย์ต่อความจริงของโลก มากกว่า
    • ถึงอย่างนั้น Claude ก็ยังมี รายการข้อห้ามแบบเด็ดขาด อยู่ WMD, การโจมตีไซเบอร์, การทำลายล้างโลก, CSAM ล้วนไม่อนุญาตไม่ว่าด้วยเหตุผลใด การสร้างกฎที่สมบูรณ์แบบเป็นไปไม่ได้ จึงอย่างน้อยก็มีการขีดเส้นแดงขั้นต่ำไว้
    • ผมเองก็เชื่อในศีลธรรมแบบสัมบูรณ์ แต่ในทางปฏิบัติคงลงเอยที่ “ความใส่ใจอย่างแท้จริงและปัญญาเชิงปฏิบัติ” ซึ่งเป็นทางออกที่ดีที่สุดท่ามกลางค่านิยมที่แตกต่างกัน
    • ถ้าศีลธรรมเชิงวัตถุวิสัยมีอยู่จริง ก็ต้องมี ระบบคำนวณจริยธรรมที่นิยามได้ทางกายภาพ แต่ตอนนี้ยังไม่มี และสัญชาตญาณของมนุษย์ซับซ้อนกว่านั้นมาก
  • มันดูเหมือนช่วงเวลา “Don’t be evil” ของ Anthropic แต่สุดท้ายก็หนี ความจำเป็นของการกำกับดูแล ไม่พ้น
    เมื่อเวลาผ่านไป บริษัทก็จะให้ความสำคัญกับ ผลประโยชน์ผู้ถือหุ้น มากกว่าความตั้งใจดี

    • ตอนที่ Google ใช้คำขวัญนั้นยังมีข้อถกเถียงน้อยกว่า แต่ Anthropic ตอนนี้ร่วมงานกับ Palantir แล้ว ดู ลิงก์บทความ Axios
    • ถึงอย่างนั้น Anthropic ก็ใช้โครงสร้าง บริษัทเพื่อประโยชน์สาธารณะ (PBC) และได้ก่อตั้ง Long-Term Benefit Trust ที่มีเป้าหมาย “พัฒนา AI เพื่อผลประโยชน์ระยะยาวของมนุษยชาติ” ดู ลิงก์ Wikipedia
    • สงสัยว่า “โมเดลสำหรับวัตถุประสงค์เฉพาะ” ที่รัฐธรรมนูญพูดถึง หมายถึงอะไรกันแน่ เป็นเพียงโมเดลสำหรับเครื่องมือขนาดเล็ก หรือเป็นโมเดลที่มีระบบคุณค่าคนละแบบกันแน่ก็ยังไม่ชัด
    • Anthropic สนับสนุน ร่างกฎหมายกำกับดูแล SB 53 จริง ดู ลิงก์ประกาศทางการ
    • ปัญหาไม่ใช่ว่า “ตอนนี้ยังเป็นคนดี” แต่คือ “ไม่มีใครคิดว่าตัวเองเป็นคนเลว”
  • การที่ Claude ใช้ข้อมูลของมนุษย์ในการฝึก แต่กลับผูกขาดผลลัพธ์เชิงพาณิชย์ ทำให้รู้สึกว่า ไม่เป็นธรรม
    เหมือนกรณีความไม่สมดุลในการทำเงินจาก Seinfeld ผู้ใช้เองก็ควรได้รับการปฏิบัติอย่างเป็นธรรมในฐานะผู้ให้ข้อมูลด้วย
    ผมคิดว่า โอเพนซอร์ส AI เท่านั้นที่เป็นโมเดลที่ยุติธรรมอย่างแท้จริง แม้จะไม่ค่อยสมจริงนัก แต่ โมเดล Linux GPL ก็ยังใกล้เคียงความยุติธรรมที่สุด

  • ผมใช้รัฐธรรมนูญและ model spec นี้เป็นแนวทางในการเรียนรู้ การออกแบบ system prompt
    เอกสารแบบนี้ไม่ใช่แค่ของประดับ แต่สำคัญต่อการ กำหนดบุคลิกและสไตล์พฤติกรรม ของโมเดล

    • แต่รัฐธรรมนูญถูกใช้ใน ขั้นตอนการฝึก ขณะที่ system prompt ของผลิตภัณฑ์จริงมีแยกต่างหาก ถ้าจะใช้อ้างอิง เอกสาร system prompt อย่างเป็นทางการ น่าจะเหมาะกว่า
  • มี บทสัมภาษณ์บน YouTube ที่ Amanda Askell อธิบายเบื้องหลังการเขียนรัฐธรรมนูญนี้ ดู ลิงก์วิดีโอ

  • คำว่า ‘genuine’ ปรากฏในรัฐธรรมนูญถึง 43 ครั้ง นี่อาจเป็นเหตุผลว่าทำไม Claude ถึงใช้คำนี้บ่อยผิดปกติ

    • ก็น่าจะเป็นเพราะมันอยู่ในรัฐธรรมนูญนั่นแหละ
    • ที่จริงถ้าควบคุมการใช้คำพวกนี้ได้ด้วย กฎการกรอง ก็น่าจะดี เช่นห้ามใช้ “genuine” หรือสำนวนแบบ “it’s not X, it’s Y”
    • แต่อีกมุมหนึ่ง การใช้คำอย่างสม่ำเสมอก็อาจเป็นเรื่องธรรมชาติทางสำนวน คนเขียนรัฐธรรมนูญคงไม่จำเป็นต้องเปิดพจนานุกรมคำพ้องทุกครั้ง
  • Anthropic ดูเหมือนกำลังกระตุ้น การแข่งขันที่ตัวเองจะแพ้
    โมเดล Opus จะทรงพลังพอในที่สุด จนผู้ใช้ย้ายไปหา AI agent แบบพึ่งพาตัวเองได้
    บริษัท AI รายใหญ่พูดกันว่า “AI จะเปลี่ยนทุกอย่าง” แต่กลับมี ความย้อนแย้งที่ไม่ต้องการให้สถานะของตัวเองเปลี่ยนไป