Claude for Legal - ชุดปลั๊กอิน AI สำหรับงานกฎหมายจาก Anthropic
(github.com/anthropics)- เป็น ชุดปลั๊กอินที่ครอบคลุมงานกฎหมายเชิงปฏิบัติครบทุกด้าน ตั้งแต่สัญญาเชิงพาณิชย์ภายในองค์กร ความเป็นส่วนตัว การจ้างงาน M&A คดีความ กฎระเบียบ AI governance ทรัพย์สินทางปัญญา ไปจนถึงการศึกษากฎหมาย และสามารถแจกจ่ายได้ 3 รูปแบบ ได้แก่ Claude Cowork, Claude Code และ Managed Agents API
- มี Named Agent มากกว่า 70 รายการ — เช่น Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder และอื่น ๆ โดยเรียกใช้งานตามเวิร์กโฟลว์ได้ด้วยคำสั่งสแลชเพียงคำสั่งเดียว
- แต่ละปลั๊กอินเรียนรู้เพลย์บุ๊กของทีม กฎการ escalation และ house style ผ่าน cold-start interview แล้วบันทึกลงในโปรไฟล์แนวปฏิบัติ
CLAUDE.mdเพื่อให้ทุกสกิลสร้างผลลัพธ์แบบปรับแต่งเฉพาะ - มี MCP connector มากกว่า 20 รายการ: ทั้งเครื่องมือทั่วไปอย่าง Slack, Google Drive, Box และระบบเฉพาะทางกฎหมายอย่าง Ironclad, DocuSign, iManage, Everlaw, CourtListener, Trellis
- ปลั๊กอิน CoCounsel Legal ของ Thomson Reuters เชื่อมต่อกับ Westlaw Deep Research เพื่อสร้างรายงานอ้างอิงแบบครบถ้วนสำหรับคำพิพากษา กฎหมาย และข้อบังคับได้สูงสุด 3 เขตอำนาจศาลในสหรัฐฯ
- การอ้างอิงผ่าน research connector จะมี source tag กำกับ ส่วนการอ้างอิงที่อาศัยเฉพาะความรู้ของโมเดลจะมี แฟลก
[verify]เพื่อแยกระดับความน่าเชื่อถือของการอ้างอิงอย่างชัดเจน - สกิลด้านสัญญาทำงานใน โหมด tracked changes บนแถบด้านข้างของ Claude for Word พร้อมคงการลำดับเลข ข้อกำหนดนิยาม การอ้างอิงข้าม และสไตล์เดิมไว้ ส่วนสกิลสำหรับ Excel จะส่งออกเป็นเวิร์กบุ๊ก
.xlsxแบบหลายชีต - legal-builder-hub เป็นชั้นความน่าเชื่อถือสำหรับสกิลจากชุมชน — สแกนเนื้อหาที่ซ่อนอยู่ ตรวจจับการ injection, allowlist, license gate, freshness gate, สแกนซ้ำเมื่อมีอัปเดต และมีบันทึกการตรวจสอบการติดตั้ง
- มีปลั๊กอินเพื่อการศึกษา เช่น Socratic Drill สำหรับนักศึกษากฎหมาย (โหมดเรียนรู้ที่ไม่ให้คำตอบตรง ๆ), การให้คะแนน IRAC, การเตรียมสอบเนติบัณฑิต, แฟลชการ์ด, การคาดการณ์ข้อสอบ รวมถึงปลั๊กอิน legal-clinic (ออกแบบตาม ABA Formal Op. 512)
- ผลลัพธ์ทั้งหมดเป็นเพียง ฉบับร่างสำหรับให้ทนายความตรวจทาน และไม่ได้สะท้อนจุดยืนทางกฎหมายของ Anthropic โดยทั้งหมดจัดทำในรูปแบบ Markdown และ JSON จึงไม่ต้องมีขั้นตอน build
- ไลเซนส์ Apache-2.0
1 ความคิดเห็น
ความเห็นจาก Hacker News
ในมุมของทนายความ เรื่องนี้น่าสนใจ แต่มีอุปสรรคอยู่ 2 ข้อที่ยังไม่แน่ใจว่า Anthropic จะข้ามไปได้อย่างไร
(1) ถ้าคนที่ไม่ใช่ทนายใช้สกิล/คอนเนกเตอร์พวกนี้เพื่อขอคำแนะนำทางกฎหมาย บทสนทนานั้นจะไม่ได้รับความคุ้มครองด้วย สิทธิพิเศษความลับระหว่างทนายกับลูกความ และเรื่องนี้น่าจะย้อนกลับไปสร้างปัญหาใหญ่ให้ใครสักคนแน่
(2) ถ้าทนายใส่ข้อมูลลับของลูกความลงไป แล้วลืมปิด “Help improve Claude” ในการตั้งค่า ก็อาจเข้าข่าย ความบกพร่องในการปฏิบัติหน้าที่ของทนาย ได้ โดยข้อมูลลับในที่นี้ไม่ได้หมายถึงแค่เลขประจำตัวประชาชนหรือเลขบัญชี แต่หมายถึง “ข้อมูลทุกอย่างที่เกี่ยวข้องกับการเป็นตัวแทนให้ลูกความ”
https://www.americanbar.org/content/dam/aba/administrative/p...
ผู้พิพากษา Rakoff แห่งศาลแขวงสหรัฐเขตใต้ของนิวยอร์ก วินิจฉัยในประเด็นที่เรียกว่าเป็น “ประเด็นแรกของประเทศ” ว่า บทสนทนาเป็นลายลักษณ์อักษรระหว่างจำเลยคดีอาญากับแพลตฟอร์ม generative AI อย่าง Claude ไม่ได้รับความคุ้มครองด้วย สิทธิพิเศษความลับระหว่างทนายกับลูกความ หรือหลัก work-product doctrine
เนื้อหาจริงซับซ้อนกว่าประโยคเดียวนี้มาก แต่เอาอย่างปลอดภัยคือ ถ้าคุณใส่แนวทางการต่อสู้คดีหรือองค์ประกอบของมันลงใน AI ก็อาจตกเป็นเป้าของ การเปิดเผยพยานหลักฐาน ได้
เวลาใช้เครื่องมือบุคคลที่สามแบบนี้กับคำถามกฎหมายที่อ่อนไหว ก็เลยสงสัยว่ามี กระบวนการความปลอดภัยเชิงปฏิบัติการ แบบไหนที่ทั้งถูกต้องตามจริยธรรมและทำให้มั่นใจได้ว่าปฏิสัมพันธ์เหล่านี้จะไม่ไปอยู่ในเอกสารที่ต้องเปิดเผยเป็นพยานหลักฐาน
มีสรุปสถานการณ์ปัจจุบันที่ดีอยู่ที่นี่: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
อย่างไรก็ตาม ยังไม่มีอะไรในนี้เป็นบรรทัดฐานที่มีผลผูกพัน ดังนั้นสาขานี้จะยังคงเปลี่ยนไปเรื่อย ๆ ตามกาลเวลา
ถ้าสิ่งนี้ทำงานพลาด ใครจะเป็นคนรับผิดชอบ? Anthropic Inc คงไม่มารับผิดแทนแน่ ไม่มี ประกันความผิดพลาดและการละเว้น, ไม่มีความรับผิดทางกฎหมาย, ไม่มีสิทธิพิเศษความลับระหว่างทนายกับลูกความ, และไม่มีสภาทนายที่จะจัดการเรื่องวินัย
มองตามจริงแล้วมันใกล้เคียงกับ “ชุดทำพินัยกรรม” เวอร์ชันอัปเกรดที่พ่น PDF ออกมาได้มากกว่า จนกว่าจะมีอะไรเปลี่ยนแปลงในระดับพื้นฐาน ระบบกฎหมายก็คงไม่มองสิ่งนี้ในแง่ดี
คงดีถ้าเราไม่ต้องเสียเงินหลายพันดอลลาร์เพื่อปกป้องตัวเองในวัฒนธรรมที่ชอบฟ้องร้องกัน แต่ฉันคงไม่เอาชีวิตและความเป็นอยู่ไปฝากไว้กับสิ่งนี้
ฉันมอง AI ในงานกฎหมายแบบมองโลกในแง่ดีอย่างระมัดระวัง งานกฎหมายจำนวนมากคือการคุ้ยกองเอกสารซ้ำ ๆ ดังนั้นแค่ความสามารถที่ LLM ทำได้ดีอยู่แล้วก็มีพื้นที่ให้นำไปใช้มาก แต่สำหรับงานกฎหมาย ฉันคิดว่าควรเข้าหาแบบ agent เหมือน Claude
context window ของ LLM เล็กเกินกว่าจะใส่เอกสารของคดีเล็ก ๆ ได้ด้วยซ้ำ ดังนั้นต้องทำงานบนโครงสร้างไฟล์เหมือนที่โปรแกรมเมอร์ใช้ และเก็บสถานะไว้ในไฟล์
.mdวิธีนี้พัฒนาไปไกลแล้วในงานโปรแกรมมิง แต่บริษัท legal AI ยังแทบไม่ได้แตะผิวหน้าเลยด้วยซ้ำ พูดตรง ๆ ผลิตภัณฑ์ที่ซ่อน LLM ไว้หลังอินเทอร์เฟซแบบใดแบบหนึ่งก็ไม่ค่อยดีนักน่าเสียดายที่ในตัวอย่างที่คนทั่วไปพยายามป้องกันคดีด้วยต้นทุนต่ำ AI คงไม่ได้ช่วยมาก งานส่วนใหญ่เป็นเรื่องของการจัดการกับคน คุณต้องรู้ว่าเกิดอะไรขึ้น คุยกับคนที่เกี่ยวข้อง จัดระเบียบเรื่องเล่าที่ขัดกัน พยายามไกล่เกลี่ยถ้าเป็นไปได้ ไม่อย่างนั้นก็ต้องโน้มน้าวผู้พิพากษาในศาล AI ดูจะเหมาะกับการช่วยบริษัทใหญ่ควบคุมต้นทุนกฎหมายในคดีใหญ่ ๆ ขณะต่างฝ่ายต่างโยนเอกสารใส่กันมากขึ้นเสียมากกว่า
บันทึกการคุยกับ AI ไม่ได้รับความคุ้มครองเหมือน สิทธิพิเศษความลับระหว่างทนายกับลูกความ และอาจถูกใช้เป็นหลักฐานเล่นงานคุณในศาลได้ แต่ถ้าคุณคุยกับทนายแล้วทนายคนนั้นใช้ AI บทสนทนานั้นก็จะอยู่ในขอบเขตความคุ้มครองของสิทธิพิเศษนี้
ดูเหมือนจะตัด Lexis ซึ่งน่าจะเป็นหนึ่งในเครื่องมือที่สำคัญที่สุดสำหรับทนาย ออกไป: https://github.com/anthropics/claude-for-legal/pull/5
เพราะงั้นฉันเลยคิดว่ามูลค่าประเมินของ สตาร์ทอัป AI ชั้นแอปพลิเคชัน จำนวนมากตอนนี้ค่อนข้างไม่นิ่ง ถ้าบริษัท AI ใหญ่อย่าง Anthropic เริ่มขยายไปทำผลิตภัณฑ์แนวดิ่ง สมการมันก็เปลี่ยน
แต่ก็สงสัยว่าพวกเขาจะทำต่ออย่างจริงจังแค่ไหน ข้อได้เปรียบที่สตาร์ทอัปบางรายยังพอเหลืออยู่ อาจเป็นความกลัวว่าชุดผลิตภัณฑ์จาก OpenAI/Anthropic อาจจบลงในสุสานแบบผลิตภัณฑ์ Google ภายใน 1-2 ปี
วลีที่ว่า “workflow งานกฎหมายที่เราเห็นบ่อยที่สุด” ฟังแล้วรู้สึกขัด ๆ นี่หมายความว่าอิงจาก เซสชันของลูกค้า ใช่ไหม? พวกเขามีสิทธิใช้ข้อมูลลูกค้าเพื่อสร้างฐานความรู้เกี่ยวกับทุกอาชีพ ทุกหัวข้อ และทุก workflow ทั่วโลกหรือ?
พวกเขาเชื่อว่าตัวเองมีสิทธินั้น และก็พูดเรื่องนี้ค่อนข้างเปิดเผยด้วย
มันมีชื่อด้วย คือ Clio และตามหน้าเว็บบอกว่าเป็น “ระบบสำหรับอินไซต์ที่คำนึงถึงความเป็นส่วนตัวเกี่ยวกับการใช้ AI จริง”
หน้าที่เกี่ยวข้องอยู่ที่นี่: https://www.anthropic.com/research/clio
ถึงจุดหนึ่ง ทนาย นักกฎหมาย และผู้พิพากษาก็น่าจะใช้สิ่งนี้กัน แล้วทนายอาจกลายเป็นอะไรคล้าย ๆ ผู้เชี่ยวชาญ SEO/นักเขียนคำโฆษณา ที่เก่งกว่าในการหลอก LLM ฝั่งตรงข้าม
ในฐานะคนที่เคยว่าความแทนตัวเองในศาลมาก่อน ฉันว่ามันน่าสนใจชัดเจน
แต่ในบางเขตอำนาจ เช่นสหราชอาณาจักร คุณไม่สามารถให้คำแนะนำทางกฎหมายกับใครแบบส่ง ๆ ได้ เว้นแต่จะได้รับการอนุญาตจาก SRA หรืออยู่ภายใต้การกำกับของ FCA ซึ่งหมายความว่าสิ่งนี้อาจทำให้ Anthropic กลายเป็น บริษัทจัดการการเรียกร้องค่าสินไหม โดยพฤตินัยตามกฎหมายอังกฤษ
ตาม article 89I ของ Financial Services and Markets Act 2000 (Regulated Activities) Order 2001 การให้คำแนะนำแก่ผู้เรียกร้องหรือผู้ที่อาจเป็นผู้เรียกร้องในข้อเรียกร้องที่เกี่ยวกับบริการทางการเงินหรือผลิตภัณฑ์ทางการเงิน การสอบสวนข้อเรียกร้อง หรือการเป็นตัวแทนผู้เรียกร้อง ถือเป็นกิจกรรมที่อยู่ภายใต้การกำกับดูแลตามนิยาม
https://www.fca.org.uk/freedom-information/dual-regulation-c...
ป่านนี้บริษัท AI น่าจะเรียนรู้แล้วว่าวงการกฎหมายไม่ใช่ที่ที่ควรเข้าไปแตะมั่ว ๆ แค่ดูประวัติก็พอ แต่พวกโลกสวยสาย AI กลุ่มนี้เหมือนจะไม่มี ความสามารถในการเรียนรู้
สิ่งที่พวกเขาจะทำคือขายบริการ AI ให้สำนักงานกฎหมาย แล้วให้สำนักงานกฎหมายนำไปใช้ในกระบวนการให้บริการทางกฎหมายของตัวเอง ซึ่งไม่ว่าจะดีหรือร้าย มันก็เกิดขึ้นแล้ว และสำนักงานกฎหมายองค์กรขนาดใหญ่แทบทั้งหมดก็ใช้ AI ในรูปแบบใดรูปแบบหนึ่ง ลูกค้าก็เรียกร้องด้วย ปัญหาจากการใช้ AI ในงานกฎหมายจะยังเกิดขึ้นต่อไป แต่ความรับผิดก็จะตกอยู่กับทนาย
ชื่อองค์กร GitHub ว่า “Anthropics” ดูชวนให้เข้าใจผิดพอสมควร