- พบว่าผู้พิพากษาศาลชั้นต้นในรัฐอานธรประเทศของอินเดียอ้างอิงคำพิพากษาปลอมที่ AI สร้างขึ้นในคดีข้อพิพาทด้านอสังหาริมทรัพย์
- ศาลฎีกากำหนดให้เรื่องนี้เป็นประเด็น ‘ความกังวลเชิงสถาบัน’ และมองว่าไม่ใช่เพียงความผิดพลาดในการวินิจฉัย แต่เป็น**‘การประพฤติมิชอบในหน้าที่ (misconduct)’**
- ผู้พิพากษารายดังกล่าวให้การว่าเพิ่งใช้เครื่องมือ AI เป็นครั้งแรกและเชื่อว่าข้อความที่อ้างเป็นของจริง แต่ศาลฎีกาสั่งระงับผลของคำพิพากษาศาลล่าง
- แม้ศาลสูงของอินเดียจะยอมรับว่าผู้พิพากษาทำไปด้วยเจตนาดี (good faith) และคงคำพิพากษาไว้ แต่ศาลฎีกาให้ความสำคัญกับปัญหาเชิงกระบวนการจากการใช้ AI
- เหตุการณ์นี้สะท้อนให้เห็นถึงผลกระทบของ AI ต่อกระบวนการยุติธรรม และมีรายงานกรณีคล้ายกันในอินเดีย รวมถึงสหรัฐฯ และสหราชอาณาจักร
ภาพรวมของคดี
- ศาลฎีกาอินเดียกำลังตรวจสอบคดีที่ผู้พิพากษาศาลแพ่งชั้นต้นในเมืองวิชัยวาทะ รัฐอานธรประเทศ อ้างคำพิพากษาบรรทัดฐานปลอมที่ AI สร้างขึ้นเพื่อตัดสินคดีข้อพิพาทด้านอสังหาริมทรัพย์
- หลังฝ่ายจำเลยยื่นอุทธรณ์ คดีจึงถูกส่งต่อไปยังศาลฎีกา
- ศาลฎีการะบุว่านี่เป็น “ประเด็นที่ส่งผลโดยตรงต่อความน่าเชื่อถือและความสมบูรณ์ของกระบวนการพิจารณาคดี”
- คดีปัญหานี้เกิดขึ้นในเดือนสิงหาคม 2025 โดยผู้พิพากษาอ้างคำพิพากษาเก่า 4 คดี แต่ภายหลังยืนยันได้ว่าทั้งหมดเป็นเอกสารปลอมที่ AI สร้างขึ้น
คำวินิจฉัยของศาลชั้นต้นและศาลสูง
- จำเลยชี้ว่าคำพิพากษาที่ถูกอ้างนั้นเป็นของปลอมและยื่นอุทธรณ์ต่อศาลสูง
- ศาลสูงยอมรับว่าผู้พิพากษากระทำ**‘ความผิดพลาดโดยสุจริต’** และยังคงคำพิพากษาเดิมไว้
- พร้อมระบุว่า “แม้ข้อความอ้างอิงจะไม่มีอยู่จริง แต่หากการใช้หลักกฎหมายถูกต้อง ก็ไม่มีเหตุให้ต้องเพิกถอนคำพิพากษา”
- ศาลสูงสั่งให้ผู้พิพากษาจัดทำรายงาน โดยผู้พิพากษาให้การว่าเพิ่งใช้เครื่องมือ AI เป็นครั้งแรก และเชื่อถือข้อมูลที่ระบบสร้างขึ้นโดยอัตโนมัติ
- พร้อมอธิบายว่า “ไม่มีเจตนาจะอ้างอิงผิดหรือบิดเบือน และความผิดพลาดเกิดจากการพึ่งพาแหล่งข้อมูลอัตโนมัติ”
- ศาลสูงยังเสริมว่า “สิ่งที่จำเป็นคือการใช้ปัญญาจริง มากกว่าปัญญาประดิษฐ์”
ปฏิกิริยาของศาลฎีกา
- ศาลฎีกาสั่งระงับ (stay) คำพิพากษาของศาลล่างโดยทันที และกำหนดว่าการใช้ AI ในกรณีนี้ไม่ใช่เพียงข้อผิดพลาดธรรมดา แต่เป็น**‘การประพฤติมิชอบในหน้าที่’**
- พร้อมย้ำว่า “ในคดีนี้ ประเด็นสำคัญไม่ใช่เนื้อหาของคำพิพากษา แต่คือปัญหาในตัวกระบวนการพิจารณาคดีและกระบวนการใช้ดุลยพินิจเอง”
- ศาลฎีกาได้แจ้งต่ออัยการสูงสุด ที่ปรึกษากฎหมาย และสภาเนติบัณฑิตยสภาแห่งอินเดีย (Bar Council of India) และจะพิจารณาคดีนี้เพิ่มเติม
การปะทะกันระหว่าง AI กับกระบวนการยุติธรรม
- ช่วงหลังมานี้ ศาลฎีกาอินเดียยังแสดงความกังวลต่อกรณีที่ทนายความใช้เครื่องมือ AI ในการร่างคำร้อง
- ตามรายงานของสื่อกฎหมายเฉพาะทาง LiveLaw ศาลฎีการะบุว่า “การกระทำเช่นนี้ไม่อาจหาเหตุผลมารองรับได้เลย”
- ไม่ใช่แค่อินเดียเท่านั้น แต่ยังมีกรณีความผิดพลาดในคำพิพากษาจากการใช้ AI ในสหรัฐฯ และสหราชอาณาจักร
- ในเดือนตุลาคม 2025 พบว่าผู้พิพากษาศาลรัฐบาลกลางสหรัฐฯ 2 คน จัดทำคำพิพากษาผิดพลาดจากการใช้ AI
- ในเดือนมิถุนายน 2025 ศาลสูงอังกฤษออกคำเตือนห้ามทนายใช้คำพิพากษาบรรทัดฐานที่ AI สร้างขึ้น
การรับมือ AI ของฝ่ายตุลาการอินเดีย
- ศาลฎีกาอินเดียเผยแพร่สมุดปกขาว (white paper) ว่าด้วยการใช้ AI ในฝ่ายตุลาการ ในปี 2025
- ในสมุดปกขาวมีแนวทางการใช้ AI และตัวอย่างแนวปฏิบัติที่ดี รวมอยู่ด้วย
- ศาลฎีกาเน้นย้ำความสำคัญของการกำกับดูแลโดยมนุษย์ (human oversight) และการคงไว้ซึ่งกลไกคุ้มกันเชิงสถาบัน
- คดีนี้สะท้อนว่าระบบตุลาการของอินเดียกำลังอยู่ในกระบวนการแสวงหาสมดุลระหว่างการนำ AI มาใช้กับการควบคุมกำกับ
1 ความคิดเห็น
ความเห็นจาก Hacker News
ดูเหมือนว่าคำพูดที่ว่า AI จะมาแทนมนุษย์นั้นจะเป็นการพูดเกินจริง
ท้ายที่สุดก็ยังต้องมีคนรับผิดชอบอยู่ดี และถ้าเกิดปัญหาขึ้น สุดท้ายก็ต้องมีใครสักคนถูกไล่ออกหรือเข้าคุก
AI อาจช่วยเพิ่มประสิทธิภาพการทำงานได้ แต่ระบบที่ไม่มีมนุษย์อยู่เลยมีโอกาสสูงที่จะนำไปสู่หายนะหรือคดีความ
นั่นจึงเป็นเหตุผลว่าทำไมบริษัทต่าง ๆ ถึงยังไม่เห็น ROI ตามที่คาดหวัง
ในความเป็นจริง หลายกรณีที่อ้างว่า “ประสิทธิภาพดีขึ้นเพราะ AI” แล้วมีการปลดคนออกนั้น ส่วนใหญ่ก็เป็นแค่ข้ออ้างเพื่อปกปิดผลงานที่ย่ำแย่
ถ้าใช้ AI เป็นแค่เครื่องมือ ความรับผิดชอบก็ยังอยู่ที่ผู้ใช้ และถ้าปฏิบัติต่อ AI ราวกับเป็น ‘งานของคนอื่น’ ก็เท่ากับว่ามอบหมายให้คนไม่มีคุณสมบัติทำแทน ซึ่งสุดท้ายก็ยังเป็นความผิดของผู้ใช้อยู่ดี
แต่แทบไม่เคยเห็นกรณีที่มีการเอาผิดกับคนนั้นเลย
ข้อความที่ LLM สร้างขึ้นควรถูกระบุด้วยบล็อก Unicode แยกต่างหาก เพื่อให้ชัดเจนว่าเป็นเนื้อหาที่ AI สร้าง
การปกปิดหรือดัดแปลงเรื่องนี้ก็ไม่ต่างจากหมอที่ไม่ล้างมือก่อนผ่าตัด
เขาเรียกกันว่า “checks and balances” แต่ดูเหมือนว่าฝ่ายตุลาการจะเป็นข้อยกเว้น
รายงานของ MIT ก็ระบุว่าพนักงานส่วนใหญ่ใช้ AI ผ่านบัญชีส่วนตัว ไม่ใช่บัญชีของบริษัท
ข้อแก้ตัวว่าเป็น “ความผิดพลาดจากการพึ่งพาแหล่งข้อมูลอัตโนมัติ” ใช้ไม่ได้
ไม่ว่าอาชีพไหนก็ตาม เมื่อทำงานอัตโนมัติด้วย LLM ความรับผิดชอบก็ยังอยู่ที่ผู้เชี่ยวชาญ
การโทษเครื่องมือเพราะไม่รู้จักเครื่องมือของตัวเองนั้น ในทางกฎหมายก็ฟังไม่ขึ้น
เหมือนในยุคที่วิศวกรที่มีใบรับรองเพียงแค่เซ็นรับรองงานจ้างภายนอก ยิ่งพยายามทำให้ถูกและเร็วเท่าไร ระบบป้องกันความปลอดภัยก็ยิ่งหายไป
LLM แค่ทำให้ความถดถอยที่มีอยู่แล้วชัดเจนขึ้น ไม่ใช่ต้นเหตุของมัน
ฉันเองก็ชอบ AI แต่ก็ต้องใช้มันอย่างมีความรับผิดชอบ
ความผิดพลาดกับการกระทำโดยเจตนาควรถูกปฏิบัติทางกฎหมายต่างกัน
ถ้าเรื่องแบบนี้เกิดซ้ำ ๆ ก็ควรต้องปรับเครื่องมือเอง
ต่อให้บอกว่าผู้ใช้ทำผิดทุกครั้ง แต่ถ้าปัญหาเดิมเกิดซ้ำอย่างเป็นระบบ สุดท้ายก็เป็นปัญหาการออกแบบของเครื่องมือ
ถ้ายังไม่รู้เรื่องนี้ ก็มีแต่จะเป็นความขี้เกียจหรือไร้ความสามารถ
น่าสงสัยว่าทนายจะใช้เวลาอีกนานแค่ไหนกว่าจะเข้าใจว่า สิ่งที่ LLM พูดนั้นต้องตรวจสอบด้วยตัวเอง
โครงสร้างแบบ “ให้เข้าแทรกแซงเมื่อจำเป็นเท่านั้น” เหมือนรถขับเคลื่อนอัตโนมัติ ย่อมล้มเหลวเพราะข้อจำกัดด้านสมาธิของมนุษย์
แนวคิดที่ว่า “คนต้องตรวจให้ดีขึ้น” ใช้งานจริงไม่ได้
นั่นแหละคือสิ่งที่อันตรายที่สุด
นี่ไม่ใช่ปัญหาของทนายอย่างเดียว
ถ้อยคำที่ศาลฎีกาแนะนำว่า “จงใช้สติปัญญาจริง แทนที่จะพึ่งปัญญาประดิษฐ์” นั้นน่าประทับใจมาก
สุดท้ายแล้วคงจะมีงานวิชาการที่เต็มไปด้วยการอ้างอิงปลอมเพิ่มขึ้นเรื่อย ๆ
ถ้า AI เอาเอกสารเหล่านี้ไปใช้ฝึกต่อ ก็มีความเสี่ยงที่บนอินเทอร์เน็ตจะมีข้อมูลหลอนมากกว่าข้อมูลจริง
ในสหรัฐฯ และสหราชอาณาจักรก็มีปัญหาคล้ายกัน
ทนายจำนวนมากไม่ค่อยถนัดเทคโนโลยี จึงพยายามแก้เอกสารที่แชตบอตสร้างขึ้นด้วยตัวเอง ทำให้ข้อผิดพลาดแทบหลีกเลี่ยงไม่ได้
กรณีที่เกี่ยวข้องมีพูดถึงไว้ใน รายงานของ Doughty Street ด้วย
ระบบกฎหมายเองก็สร้างข้อความสำเร็จรูป (boilerplate) ที่ไม่จำเป็นมากเกินไป
ทนายเองก็ไม่ได้อ่านทั้งหมด มักแค่อ่านผ่านเฉพาะส่วนที่ต้องใช้
การใช้ AI อย่างไร้ความรับผิดชอบเป็นปัญหาแน่นอน แต่เรื่องนี้ก็อาจเป็นโอกาสในการทำให้โครงสร้างเอกสารกฎหมายเรียบง่ายขึ้นด้วย
กฎหมายไม่เหมือนโค้ด แต่โครงสร้างที่ซับซ้อนเกินไปก็ยังมีพื้นที่ให้ปรับปรุง
ถ้าทำให้ง่ายเกินไป กลับจะเปิดช่องให้ตีความได้มากขึ้นและเพิ่มข้อพิพาท
ภาษากฎหมาย (legalese) จึงเป็นกลไกเพื่อลดความคลางแคลงใจในที่สุด
เป็นโครงสร้างที่เอาแต่เสริมแต่งเพิ่มขึ้นมาโดยไม่เคยทำให้เรียบง่ายจากรากฐาน
ปัญหานี้จะยิ่งใหญ่ขึ้นในทุกอุตสาหกรรม
ฉันกำลังศึกษามาตรการรับมือในวงการฟินเทค และมองว่าแนวทางของ Resemble AI ใช้งานได้จริงที่สุด
แก่นสำคัญไม่ใช่แค่ข้อความ แต่รวมถึงการตรวจจับการโคลนเสียงด้วย AI และการใส่วอเตอร์มาร์ก
ความจริงที่ต้องคอยวิ่งไล่ตามปัญหาแบบนี้ตลอดไม่ใช่เรื่องง่ายเลย
ข้อแก้ตัวว่าเป็น “ความผิดพลาดจากการพึ่งพาแหล่งข้อมูลอัตโนมัติ” ก็เหมือนกับการพูดว่า
“ปืนมันเป็นอัตโนมัติ คนตายเลยไม่ใช่ความผิดของฉัน”
การทำนายโทเค็นถัดไปและภาพหลอนไม่ใช่แค่บั๊กธรรมดา
การปล่อยปละปัญหาแบบนี้ไว้ในงานที่ความน่าเชื่อถือและความถูกต้องสมบูรณ์เป็นเรื่องสำคัญนั้นอันตรายมาก