1 คะแนน โดย GN⁺ 2026-03-05 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • พบว่าผู้พิพากษาศาลชั้นต้นในรัฐอานธรประเทศของอินเดียอ้างอิงคำพิพากษาปลอมที่ AI สร้างขึ้นในคดีข้อพิพาทด้านอสังหาริมทรัพย์
  • ศาลฎีกากำหนดให้เรื่องนี้เป็นประเด็น ‘ความกังวลเชิงสถาบัน’ และมองว่าไม่ใช่เพียงความผิดพลาดในการวินิจฉัย แต่เป็น**‘การประพฤติมิชอบในหน้าที่ (misconduct)’**
  • ผู้พิพากษารายดังกล่าวให้การว่าเพิ่งใช้เครื่องมือ AI เป็นครั้งแรกและเชื่อว่าข้อความที่อ้างเป็นของจริง แต่ศาลฎีกาสั่งระงับผลของคำพิพากษาศาลล่าง
  • แม้ศาลสูงของอินเดียจะยอมรับว่าผู้พิพากษาทำไปด้วยเจตนาดี (good faith) และคงคำพิพากษาไว้ แต่ศาลฎีกาให้ความสำคัญกับปัญหาเชิงกระบวนการจากการใช้ AI
  • เหตุการณ์นี้สะท้อนให้เห็นถึงผลกระทบของ AI ต่อกระบวนการยุติธรรม และมีรายงานกรณีคล้ายกันในอินเดีย รวมถึงสหรัฐฯ และสหราชอาณาจักร

ภาพรวมของคดี

  • ศาลฎีกาอินเดียกำลังตรวจสอบคดีที่ผู้พิพากษาศาลแพ่งชั้นต้นในเมืองวิชัยวาทะ รัฐอานธรประเทศ อ้างคำพิพากษาบรรทัดฐานปลอมที่ AI สร้างขึ้นเพื่อตัดสินคดีข้อพิพาทด้านอสังหาริมทรัพย์
    • หลังฝ่ายจำเลยยื่นอุทธรณ์ คดีจึงถูกส่งต่อไปยังศาลฎีกา
    • ศาลฎีการะบุว่านี่เป็น “ประเด็นที่ส่งผลโดยตรงต่อความน่าเชื่อถือและความสมบูรณ์ของกระบวนการพิจารณาคดี
  • คดีปัญหานี้เกิดขึ้นในเดือนสิงหาคม 2025 โดยผู้พิพากษาอ้างคำพิพากษาเก่า 4 คดี แต่ภายหลังยืนยันได้ว่าทั้งหมดเป็นเอกสารปลอมที่ AI สร้างขึ้น

คำวินิจฉัยของศาลชั้นต้นและศาลสูง

  • จำเลยชี้ว่าคำพิพากษาที่ถูกอ้างนั้นเป็นของปลอมและยื่นอุทธรณ์ต่อศาลสูง
    • ศาลสูงยอมรับว่าผู้พิพากษากระทำ**‘ความผิดพลาดโดยสุจริต’** และยังคงคำพิพากษาเดิมไว้
    • พร้อมระบุว่า “แม้ข้อความอ้างอิงจะไม่มีอยู่จริง แต่หากการใช้หลักกฎหมายถูกต้อง ก็ไม่มีเหตุให้ต้องเพิกถอนคำพิพากษา”
  • ศาลสูงสั่งให้ผู้พิพากษาจัดทำรายงาน โดยผู้พิพากษาให้การว่าเพิ่งใช้เครื่องมือ AI เป็นครั้งแรก และเชื่อถือข้อมูลที่ระบบสร้างขึ้นโดยอัตโนมัติ
    • พร้อมอธิบายว่า “ไม่มีเจตนาจะอ้างอิงผิดหรือบิดเบือน และความผิดพลาดเกิดจากการพึ่งพาแหล่งข้อมูลอัตโนมัติ”
  • ศาลสูงยังเสริมว่า “สิ่งที่จำเป็นคือการใช้ปัญญาจริง มากกว่าปัญญาประดิษฐ์

ปฏิกิริยาของศาลฎีกา

  • ศาลฎีกาสั่งระงับ (stay) คำพิพากษาของศาลล่างโดยทันที และกำหนดว่าการใช้ AI ในกรณีนี้ไม่ใช่เพียงข้อผิดพลาดธรรมดา แต่เป็น**‘การประพฤติมิชอบในหน้าที่’**
    • พร้อมย้ำว่า “ในคดีนี้ ประเด็นสำคัญไม่ใช่เนื้อหาของคำพิพากษา แต่คือปัญหาในตัวกระบวนการพิจารณาคดีและกระบวนการใช้ดุลยพินิจเอง
  • ศาลฎีกาได้แจ้งต่ออัยการสูงสุด ที่ปรึกษากฎหมาย และสภาเนติบัณฑิตยสภาแห่งอินเดีย (Bar Council of India) และจะพิจารณาคดีนี้เพิ่มเติม

การปะทะกันระหว่าง AI กับกระบวนการยุติธรรม

  • ช่วงหลังมานี้ ศาลฎีกาอินเดียยังแสดงความกังวลต่อกรณีที่ทนายความใช้เครื่องมือ AI ในการร่างคำร้อง
    • ตามรายงานของสื่อกฎหมายเฉพาะทาง LiveLaw ศาลฎีการะบุว่า “การกระทำเช่นนี้ไม่อาจหาเหตุผลมารองรับได้เลย”
  • ไม่ใช่แค่อินเดียเท่านั้น แต่ยังมีกรณีความผิดพลาดในคำพิพากษาจากการใช้ AI ในสหรัฐฯ และสหราชอาณาจักร
    • ในเดือนตุลาคม 2025 พบว่าผู้พิพากษาศาลรัฐบาลกลางสหรัฐฯ 2 คน จัดทำคำพิพากษาผิดพลาดจากการใช้ AI
    • ในเดือนมิถุนายน 2025 ศาลสูงอังกฤษออกคำเตือนห้ามทนายใช้คำพิพากษาบรรทัดฐานที่ AI สร้างขึ้น

การรับมือ AI ของฝ่ายตุลาการอินเดีย

  • ศาลฎีกาอินเดียเผยแพร่สมุดปกขาว (white paper) ว่าด้วยการใช้ AI ในฝ่ายตุลาการ ในปี 2025
    • ในสมุดปกขาวมีแนวทางการใช้ AI และตัวอย่างแนวปฏิบัติที่ดี รวมอยู่ด้วย
  • ศาลฎีกาเน้นย้ำความสำคัญของการกำกับดูแลโดยมนุษย์ (human oversight) และการคงไว้ซึ่งกลไกคุ้มกันเชิงสถาบัน
  • คดีนี้สะท้อนว่าระบบตุลาการของอินเดียกำลังอยู่ในกระบวนการแสวงหาสมดุลระหว่างการนำ AI มาใช้กับการควบคุมกำกับ

1 ความคิดเห็น

 
GN⁺ 2026-03-05
ความเห็นจาก Hacker News
  • ดูเหมือนว่าคำพูดที่ว่า AI จะมาแทนมนุษย์นั้นจะเป็นการพูดเกินจริง
    ท้ายที่สุดก็ยังต้องมีคนรับผิดชอบอยู่ดี และถ้าเกิดปัญหาขึ้น สุดท้ายก็ต้องมีใครสักคนถูกไล่ออกหรือเข้าคุก
    AI อาจช่วยเพิ่มประสิทธิภาพการทำงานได้ แต่ระบบที่ไม่มีมนุษย์อยู่เลยมีโอกาสสูงที่จะนำไปสู่หายนะหรือคดีความ
    นั่นจึงเป็นเหตุผลว่าทำไมบริษัทต่าง ๆ ถึงยังไม่เห็น ROI ตามที่คาดหวัง
    ในความเป็นจริง หลายกรณีที่อ้างว่า “ประสิทธิภาพดีขึ้นเพราะ AI” แล้วมีการปลดคนออกนั้น ส่วนใหญ่ก็เป็นแค่ข้ออ้างเพื่อปกปิดผลงานที่ย่ำแย่

    • อาชีพอย่างทนายความหรือแพทย์ที่ต้องมีใบอนุญาตตามกฎหมายเป็นตัวอย่างที่ชัดเจนยิ่งกว่า
      ถ้าใช้ AI เป็นแค่เครื่องมือ ความรับผิดชอบก็ยังอยู่ที่ผู้ใช้ และถ้าปฏิบัติต่อ AI ราวกับเป็น ‘งานของคนอื่น’ ก็เท่ากับว่ามอบหมายให้คนไม่มีคุณสมบัติทำแทน ซึ่งสุดท้ายก็ยังเป็นความผิดของผู้ใช้อยู่ดี
    • ตอนเด็ก ๆ มักได้ยินคำว่า “คอมพิวเตอร์ล่ม” อยู่บ่อย ๆ แต่ความจริงคือมันเกิดจากคนเขียนโค้ดพลาด
      แต่แทบไม่เคยเห็นกรณีที่มีการเอาผิดกับคนนั้นเลย
    • การใช้ AI ก็ต้องมีแนวคิดเรื่องสุขอนามัยเช่นกัน
      ข้อความที่ LLM สร้างขึ้นควรถูกระบุด้วยบล็อก Unicode แยกต่างหาก เพื่อให้ชัดเจนว่าเป็นเนื้อหาที่ AI สร้าง
      การปกปิดหรือดัดแปลงเรื่องนี้ก็ไม่ต่างจากหมอที่ไม่ล้างมือก่อนผ่าตัด
    • จริง ๆ แล้วผู้พิพากษาเองก็มักไม่ต้องรับผิดกับคำตัดสินที่ผิดพลาดเช่นกัน
      เขาเรียกกันว่า “checks and balances” แต่ดูเหมือนว่าฝ่ายตุลาการจะเป็นข้อยกเว้น
    • เหตุผลที่บริษัทต่าง ๆ ไม่เห็น ROI จาก AI อาจเป็นเพราะพนักงานใช้ AI ผ่านบัญชีส่วนตัว แล้วเก็บผลด้านประสิทธิภาพไว้เป็นผลงานของตัวเองก็ได้
      รายงานของ MIT ก็ระบุว่าพนักงานส่วนใหญ่ใช้ AI ผ่านบัญชีส่วนตัว ไม่ใช่บัญชีของบริษัท
  • ข้อแก้ตัวว่าเป็น “ความผิดพลาดจากการพึ่งพาแหล่งข้อมูลอัตโนมัติ” ใช้ไม่ได้
    ไม่ว่าอาชีพไหนก็ตาม เมื่อทำงานอัตโนมัติด้วย LLM ความรับผิดชอบก็ยังอยู่ที่ผู้เชี่ยวชาญ
    การโทษเครื่องมือเพราะไม่รู้จักเครื่องมือของตัวเองนั้น ในทางกฎหมายก็ฟังไม่ขึ้น

    • การใช้ LLM ก็เป็นเพียงเวอร์ชันล่าสุดของการเอาต์ซอร์สราคาถูกเท่านั้น
      เหมือนในยุคที่วิศวกรที่มีใบรับรองเพียงแค่เซ็นรับรองงานจ้างภายนอก ยิ่งพยายามทำให้ถูกและเร็วเท่าไร ระบบป้องกันความปลอดภัยก็ยิ่งหายไป
      LLM แค่ทำให้ความถดถอยที่มีอยู่แล้วชัดเจนขึ้น ไม่ใช่ต้นเหตุของมัน
      ฉันเองก็ชอบ AI แต่ก็ต้องใช้มันอย่างมีความรับผิดชอบ
    • เจตนาเป็นเรื่องสำคัญ
      ความผิดพลาดกับการกระทำโดยเจตนาควรถูกปฏิบัติทางกฎหมายต่างกัน
    • การโทษแต่คนอย่างเดียวไม่ได้ช่วยแก้ปัญหา
      ถ้าเรื่องแบบนี้เกิดซ้ำ ๆ ก็ควรต้องปรับเครื่องมือเอง
      ต่อให้บอกว่าผู้ใช้ทำผิดทุกครั้ง แต่ถ้าปัญหาเดิมเกิดซ้ำอย่างเป็นระบบ สุดท้ายก็เป็นปัญหาการออกแบบของเครื่องมือ
    • ปัญหาเรื่องภาพหลอน (hallucination) ของ LLM นั้นเป็นที่รู้กันอย่างกว้างขวางอยู่แล้ว
      ถ้ายังไม่รู้เรื่องนี้ ก็มีแต่จะเป็นความขี้เกียจหรือไร้ความสามารถ
  • น่าสงสัยว่าทนายจะใช้เวลาอีกนานแค่ไหนกว่าจะเข้าใจว่า สิ่งที่ LLM พูดนั้นต้องตรวจสอบด้วยตัวเอง

    • คนส่วนใหญ่สุดท้ายก็จะไม่ตรวจสอบอยู่ดี
      โครงสร้างแบบ “ให้เข้าแทรกแซงเมื่อจำเป็นเท่านั้น” เหมือนรถขับเคลื่อนอัตโนมัติ ย่อมล้มเหลวเพราะข้อจำกัดด้านสมาธิของมนุษย์
      แนวคิดที่ว่า “คนต้องตรวจให้ดีขึ้น” ใช้งานจริงไม่ได้
    • ผู้คนมักเผลอเชื่อ LLM เพราะน้ำเสียงที่พูดอย่างมั่นใจ
      นั่นแหละคือสิ่งที่อันตรายที่สุด
    • จริง ๆ แล้ว LLM ก็เหมือนกระจกที่สะท้อนว่าสังคมเสื่อมถอยไปมากแค่ไหน
    • เหตุการณ์แบบนี้ที่ออกข่าวอาจเป็นแค่ส่วนน้อย ในความเป็นจริงอาจเป็นไปได้ว่าทุกคนกำลังทำพลาดคล้าย ๆ กัน
    • สัปดาห์นี้ฉันลองไล่ตรวจการอ้างอิงในงานวิชาการ พบว่า25% ถูกปลอมขึ้นมาทั้งหมด และอีกครึ่งหนึ่งของที่เหลือก็ผิด
      นี่ไม่ใช่ปัญหาของทนายอย่างเดียว
  • ถ้อยคำที่ศาลฎีกาแนะนำว่า “จงใช้สติปัญญาจริง แทนที่จะพึ่งปัญญาประดิษฐ์” นั้นน่าประทับใจมาก

  • สุดท้ายแล้วคงจะมีงานวิชาการที่เต็มไปด้วยการอ้างอิงปลอมเพิ่มขึ้นเรื่อย ๆ
    ถ้า AI เอาเอกสารเหล่านี้ไปใช้ฝึกต่อ ก็มีความเสี่ยงที่บนอินเทอร์เน็ตจะมีข้อมูลหลอนมากกว่าข้อมูลจริง

  • ในสหรัฐฯ และสหราชอาณาจักรก็มีปัญหาคล้ายกัน
    ทนายจำนวนมากไม่ค่อยถนัดเทคโนโลยี จึงพยายามแก้เอกสารที่แชตบอตสร้างขึ้นด้วยตัวเอง ทำให้ข้อผิดพลาดแทบหลีกเลี่ยงไม่ได้
    กรณีที่เกี่ยวข้องมีพูดถึงไว้ใน รายงานของ Doughty Street ด้วย

  • ระบบกฎหมายเองก็สร้างข้อความสำเร็จรูป (boilerplate) ที่ไม่จำเป็นมากเกินไป
    ทนายเองก็ไม่ได้อ่านทั้งหมด มักแค่อ่านผ่านเฉพาะส่วนที่ต้องใช้
    การใช้ AI อย่างไร้ความรับผิดชอบเป็นปัญหาแน่นอน แต่เรื่องนี้ก็อาจเป็นโอกาสในการทำให้โครงสร้างเอกสารกฎหมายเรียบง่ายขึ้นด้วย
    กฎหมายไม่เหมือนโค้ด แต่โครงสร้างที่ซับซ้อนเกินไปก็ยังมีพื้นที่ให้ปรับปรุง

    • ภาษากฎหมายจำเป็นต้องมีถ้อยคำที่แม่นยำเพื่อขจัดความกำกวม
      ถ้าทำให้ง่ายเกินไป กลับจะเปิดช่องให้ตีความได้มากขึ้นและเพิ่มข้อพิพาท
      ภาษากฎหมาย (legalese) จึงเป็นกลไกเพื่อลดความคลางแคลงใจในที่สุด
    • เอกสารกฎหมายก็เหมือนโค้ดที่ถูกแปะเลเยอร์ทับกันไปเรื่อย ๆ
      เป็นโครงสร้างที่เอาแต่เสริมแต่งเพิ่มขึ้นมาโดยไม่เคยทำให้เรียบง่ายจากรากฐาน
  • ปัญหานี้จะยิ่งใหญ่ขึ้นในทุกอุตสาหกรรม
    ฉันกำลังศึกษามาตรการรับมือในวงการฟินเทค และมองว่าแนวทางของ Resemble AI ใช้งานได้จริงที่สุด
    แก่นสำคัญไม่ใช่แค่ข้อความ แต่รวมถึงการตรวจจับการโคลนเสียงด้วย AI และการใส่วอเตอร์มาร์ก
    ความจริงที่ต้องคอยวิ่งไล่ตามปัญหาแบบนี้ตลอดไม่ใช่เรื่องง่ายเลย

  • ข้อแก้ตัวว่าเป็น “ความผิดพลาดจากการพึ่งพาแหล่งข้อมูลอัตโนมัติ” ก็เหมือนกับการพูดว่า
    “ปืนมันเป็นอัตโนมัติ คนตายเลยไม่ใช่ความผิดของฉัน”

  • การทำนายโทเค็นถัดไปและภาพหลอนไม่ใช่แค่บั๊กธรรมดา
    การปล่อยปละปัญหาแบบนี้ไว้ในงานที่ความน่าเชื่อถือและความถูกต้องสมบูรณ์เป็นเรื่องสำคัญนั้นอันตรายมาก