1 คะแนน โดย GN⁺ 3 시간 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • เป็น ชุดปลั๊กอินที่ครอบคลุมงานกฎหมายเชิงปฏิบัติครบทุกด้าน ตั้งแต่สัญญาเชิงพาณิชย์ภายในองค์กร ความเป็นส่วนตัว การจ้างงาน M&A คดีความ กฎระเบียบ AI governance ทรัพย์สินทางปัญญา ไปจนถึงการศึกษากฎหมาย และสามารถแจกจ่ายได้ 3 รูปแบบ ได้แก่ Claude Cowork, Claude Code และ Managed Agents API
  • มี Named Agent มากกว่า 70 รายการ — เช่น Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder และอื่น ๆ โดยเรียกใช้งานตามเวิร์กโฟลว์ได้ด้วยคำสั่งสแลชเพียงคำสั่งเดียว
  • แต่ละปลั๊กอินเรียนรู้เพลย์บุ๊กของทีม กฎการ escalation และ house style ผ่าน cold-start interview แล้วบันทึกลงในโปรไฟล์แนวปฏิบัติ CLAUDE.md เพื่อให้ทุกสกิลสร้างผลลัพธ์แบบปรับแต่งเฉพาะ
  • มี MCP connector มากกว่า 20 รายการ: ทั้งเครื่องมือทั่วไปอย่าง Slack, Google Drive, Box และระบบเฉพาะทางกฎหมายอย่าง Ironclad, DocuSign, iManage, Everlaw, CourtListener, Trellis
  • ปลั๊กอิน CoCounsel Legal ของ Thomson Reuters เชื่อมต่อกับ Westlaw Deep Research เพื่อสร้างรายงานอ้างอิงแบบครบถ้วนสำหรับคำพิพากษา กฎหมาย และข้อบังคับได้สูงสุด 3 เขตอำนาจศาลในสหรัฐฯ
  • การอ้างอิงผ่าน research connector จะมี source tag กำกับ ส่วนการอ้างอิงที่อาศัยเฉพาะความรู้ของโมเดลจะมี แฟลก [verify] เพื่อแยกระดับความน่าเชื่อถือของการอ้างอิงอย่างชัดเจน
  • สกิลด้านสัญญาทำงานใน โหมด tracked changes บนแถบด้านข้างของ Claude for Word พร้อมคงการลำดับเลข ข้อกำหนดนิยาม การอ้างอิงข้าม และสไตล์เดิมไว้ ส่วนสกิลสำหรับ Excel จะส่งออกเป็นเวิร์กบุ๊ก .xlsx แบบหลายชีต
  • legal-builder-hub เป็นชั้นความน่าเชื่อถือสำหรับสกิลจากชุมชน — สแกนเนื้อหาที่ซ่อนอยู่ ตรวจจับการ injection, allowlist, license gate, freshness gate, สแกนซ้ำเมื่อมีอัปเดต และมีบันทึกการตรวจสอบการติดตั้ง
  • มีปลั๊กอินเพื่อการศึกษา เช่น Socratic Drill สำหรับนักศึกษากฎหมาย (โหมดเรียนรู้ที่ไม่ให้คำตอบตรง ๆ), การให้คะแนน IRAC, การเตรียมสอบเนติบัณฑิต, แฟลชการ์ด, การคาดการณ์ข้อสอบ รวมถึงปลั๊กอิน legal-clinic (ออกแบบตาม ABA Formal Op. 512)
  • ผลลัพธ์ทั้งหมดเป็นเพียง ฉบับร่างสำหรับให้ทนายความตรวจทาน และไม่ได้สะท้อนจุดยืนทางกฎหมายของ Anthropic โดยทั้งหมดจัดทำในรูปแบบ Markdown และ JSON จึงไม่ต้องมีขั้นตอน build
  • ไลเซนส์ Apache-2.0

1 ความคิดเห็น

 
GN⁺ 3 시간 전
ความเห็นจาก Hacker News
  • ในมุมของทนายความ เรื่องนี้น่าสนใจ แต่มีอุปสรรคอยู่ 2 ข้อที่ยังไม่แน่ใจว่า Anthropic จะข้ามไปได้อย่างไร
    (1) ถ้าคนที่ไม่ใช่ทนายใช้สกิล/คอนเนกเตอร์พวกนี้เพื่อขอคำแนะนำทางกฎหมาย บทสนทนานั้นจะไม่ได้รับความคุ้มครองด้วย สิทธิพิเศษความลับระหว่างทนายกับลูกความ และเรื่องนี้น่าจะย้อนกลับไปสร้างปัญหาใหญ่ให้ใครสักคนแน่
    (2) ถ้าทนายใส่ข้อมูลลับของลูกความลงไป แล้วลืมปิด “Help improve Claude” ในการตั้งค่า ก็อาจเข้าข่าย ความบกพร่องในการปฏิบัติหน้าที่ของทนาย ได้ โดยข้อมูลลับในที่นี้ไม่ได้หมายถึงแค่เลขประจำตัวประชาชนหรือเลขบัญชี แต่หมายถึง “ข้อมูลทุกอย่างที่เกี่ยวข้องกับการเป็นตัวแทนให้ลูกความ”
    https://www.americanbar.org/content/dam/aba/administrative/p...

    • สำหรับข้อ 1 มีหลักฐานอ้างอิงจาก https://harvardlawreview.org/blog/2026/03/united-states-v-he...
      ผู้พิพากษา Rakoff แห่งศาลแขวงสหรัฐเขตใต้ของนิวยอร์ก วินิจฉัยในประเด็นที่เรียกว่าเป็น “ประเด็นแรกของประเทศ” ว่า บทสนทนาเป็นลายลักษณ์อักษรระหว่างจำเลยคดีอาญากับแพลตฟอร์ม generative AI อย่าง Claude ไม่ได้รับความคุ้มครองด้วย สิทธิพิเศษความลับระหว่างทนายกับลูกความ หรือหลัก work-product doctrine
      เนื้อหาจริงซับซ้อนกว่าประโยคเดียวนี้มาก แต่เอาอย่างปลอดภัยคือ ถ้าคุณใส่แนวทางการต่อสู้คดีหรือองค์ประกอบของมันลงใน AI ก็อาจตกเป็นเป้าของ การเปิดเผยพยานหลักฐาน ได้
    • ข้อ 1 ให้ความรู้สึกแปลกมาก ถ้าฉันจ่ายเงินให้ทนาย แล้วทนายเอาคำถามเดียวกันไปใส่ในเครื่องมือแบบนี้ มันกลับได้รับความคุ้มครองด้วย สิทธิพิเศษความลับระหว่างทนายกับลูกความ แต่ถ้าฉันเตรียมการต่อสู้คดีเองแล้วถามแบบเดียวกัน กลับอาจโดนหมายเรียกหรือการเปิดเผยพยานหลักฐาน
      เวลาใช้เครื่องมือบุคคลที่สามแบบนี้กับคำถามกฎหมายที่อ่อนไหว ก็เลยสงสัยว่ามี กระบวนการความปลอดภัยเชิงปฏิบัติการ แบบไหนที่ทั้งถูกต้องตามจริยธรรมและทำให้มั่นใจได้ว่าปฏิสัมพันธ์เหล่านี้จะไม่ไปอยู่ในเอกสารที่ต้องเปิดเผยเป็นพยานหลักฐาน
    • ข้อ 1 ซับซ้อนกว่านั้นนิดหน่อย บทสนทนากับ AI อาจได้รับความคุ้มครองภายใต้ หลัก work-product doctrine ได้ในบางกรณี แต่จำกัดเฉพาะกรณีที่เจ้าตัวดำเนินคดีเองแบบ pro se และจำกัดอย่างเข้มงวดเฉพาะส่วนที่ถือเป็น mental impressions และ opinion work product ของทนาย ในกรณีนี้โครงสร้างของความคุ้มครองจะขยายไปยังคู่ความแบบ pro se ด้วย ดู Warner v. Gilbarco, Inc.
      มีสรุปสถานการณ์ปัจจุบันที่ดีอยู่ที่นี่: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
      อย่างไรก็ตาม ยังไม่มีอะไรในนี้เป็นบรรทัดฐานที่มีผลผูกพัน ดังนั้นสาขานี้จะยังคงเปลี่ยนไปเรื่อย ๆ ตามกาลเวลา
    • ข้อ 2 โดยพื้นฐานแล้วน่าจะใช้ผ่าน บัญชีองค์กร/ธุรกิจที่ปิดการเก็บรักษาข้อมูล
    • ข้อ 1 แก้ด้วยกฎหมายแค่บรรทัดเดียวไม่ได้เหรอ? ประมาณว่า “คำถามทางกฎหมายที่ส่งให้ LLM ให้ถือว่าได้รับความคุ้มครองด้วยสิทธิพิเศษความลับระหว่างทนายกับลูกความเช่นเดียวกัน”
  • ถ้าสิ่งนี้ทำงานพลาด ใครจะเป็นคนรับผิดชอบ? Anthropic Inc คงไม่มารับผิดแทนแน่ ไม่มี ประกันความผิดพลาดและการละเว้น, ไม่มีความรับผิดทางกฎหมาย, ไม่มีสิทธิพิเศษความลับระหว่างทนายกับลูกความ, และไม่มีสภาทนายที่จะจัดการเรื่องวินัย
    มองตามจริงแล้วมันใกล้เคียงกับ “ชุดทำพินัยกรรม” เวอร์ชันอัปเกรดที่พ่น PDF ออกมาได้มากกว่า จนกว่าจะมีอะไรเปลี่ยนแปลงในระดับพื้นฐาน ระบบกฎหมายก็คงไม่มองสิ่งนี้ในแง่ดี
    คงดีถ้าเราไม่ต้องเสียเงินหลายพันดอลลาร์เพื่อปกป้องตัวเองในวัฒนธรรมที่ชอบฟ้องร้องกัน แต่ฉันคงไม่เอาชีวิตและความเป็นอยู่ไปฝากไว้กับสิ่งนี้

    • ในรีโพมี ข้อความปฏิเสธความรับผิดที่แรงมาก ว่าพวกเขาไม่รับผิดอะไรเลย ดูเหมือนจะอยู่ในหมวดกรณีใช้งานเพื่อการตลาดมากกว่าของที่ใช้งานได้จริง
    • ผู้ใช้ต้องเป็นคนรับผิดชอบ ไม่ว่าผู้ใช้จะเอาข้อมูลมาจาก LLM, เครื่องจักร หรือโพสต์บนเว็บ ก็ไม่ได้ทำให้โครงสร้างความรับผิดเปลี่ยนไป และคนที่ยื่นเอกสารก็ควรเป็นคนรับผิดชอบ
    • ทนายต่างหากที่เป็นคนรับผิดชอบ การใช้ AI ไม่ใช่การตัดสินใจแบบขาวหรือดำ ทนายใช้ AI เพื่อทำงานได้มีประสิทธิภาพขึ้นได้ ลูกความก็ใช้ AI เพื่อเข้าใจสถานการณ์ปัจจุบันหรือคำอธิบายของทนายให้ดีขึ้น หรือเรียนรู้ว่าควรถามอะไรได้ หรืออาจใช้ในสถานการณ์ความเสี่ยงต่ำที่ไม่มีใครยอมจ่ายค่าทนายอยู่แล้ว
      ฉันมอง AI ในงานกฎหมายแบบมองโลกในแง่ดีอย่างระมัดระวัง งานกฎหมายจำนวนมากคือการคุ้ยกองเอกสารซ้ำ ๆ ดังนั้นแค่ความสามารถที่ LLM ทำได้ดีอยู่แล้วก็มีพื้นที่ให้นำไปใช้มาก แต่สำหรับงานกฎหมาย ฉันคิดว่าควรเข้าหาแบบ agent เหมือน Claude
      context window ของ LLM เล็กเกินกว่าจะใส่เอกสารของคดีเล็ก ๆ ได้ด้วยซ้ำ ดังนั้นต้องทำงานบนโครงสร้างไฟล์เหมือนที่โปรแกรมเมอร์ใช้ และเก็บสถานะไว้ในไฟล์ .md วิธีนี้พัฒนาไปไกลแล้วในงานโปรแกรมมิง แต่บริษัท legal AI ยังแทบไม่ได้แตะผิวหน้าเลยด้วยซ้ำ พูดตรง ๆ ผลิตภัณฑ์ที่ซ่อน LLM ไว้หลังอินเทอร์เฟซแบบใดแบบหนึ่งก็ไม่ค่อยดีนัก
      น่าเสียดายที่ในตัวอย่างที่คนทั่วไปพยายามป้องกันคดีด้วยต้นทุนต่ำ AI คงไม่ได้ช่วยมาก งานส่วนใหญ่เป็นเรื่องของการจัดการกับคน คุณต้องรู้ว่าเกิดอะไรขึ้น คุยกับคนที่เกี่ยวข้อง จัดระเบียบเรื่องเล่าที่ขัดกัน พยายามไกล่เกลี่ยถ้าเป็นไปได้ ไม่อย่างนั้นก็ต้องโน้มน้าวผู้พิพากษาในศาล AI ดูจะเหมาะกับการช่วยบริษัทใหญ่ควบคุมต้นทุนกฎหมายในคดีใหญ่ ๆ ขณะต่างฝ่ายต่างโยนเอกสารใส่กันมากขึ้นเสียมากกว่า
    • ระบบกฎหมายเองก็ไม่ได้มอง การยกเลิกกฎหมายห้ามข้ามถนนนอกทางม้าลาย ว่าดีมาตั้งแต่แรกเหมือนกัน ในสหรัฐใช้เวลาประมาณ 20 ปี
    • ตามต้นฉบับ หากใช้ปลั๊กอิน คนที่ต้องรับผิดชอบต่อจุดยืนทางกฎหมายที่นำไปใช้จาก work product ของตนคือ ทนายคนนั้นเอง ไม่ใช่ปลั๊กอินหรือ Anthropic
  • บันทึกการคุยกับ AI ไม่ได้รับความคุ้มครองเหมือน สิทธิพิเศษความลับระหว่างทนายกับลูกความ และอาจถูกใช้เป็นหลักฐานเล่นงานคุณในศาลได้ แต่ถ้าคุณคุยกับทนายแล้วทนายคนนั้นใช้ AI บทสนทนานั้นก็จะอยู่ในขอบเขตความคุ้มครองของสิทธิพิเศษนี้

    • ไม่ใช่ ถ้าคุณคุยกับทนาย และทนายใช้ มาตรการป้องกันที่สมเหตุสมผล เพื่อรักษาความสมบูรณ์ของความสัมพันธ์ลับระหว่างทนายกับลูกความ สิทธิพิเศษนั้นก็ยังอยู่ ไม่อย่างนั้นก็ไม่อยู่
  • ดูเหมือนจะตัด Lexis ซึ่งน่าจะเป็นหนึ่งในเครื่องมือที่สำคัญที่สุดสำหรับทนาย ออกไป: https://github.com/anthropics/claude-for-legal/pull/5

    • “ตามคำขอของพาร์ตเนอร์” งั้นเหรอ ก็เลยสงสัยว่า Thomson Reuters (Westlaw) รู้สึกถูกคุกคามจนต้องบ่นขนาดนี้หรือเปล่า หรือจริง ๆ แล้วฉันกลับอยากรู้ว่าสกิลพวกนี้จะทำงานได้ดีแค่ไหนถ้าใช้ร่วมกับ Lexis
    • ใช้โค้ดเบสเวอร์ชันก่อนการเปลี่ยนแปลงนั้นไปเลยไม่ได้เหรอ?
  • เพราะงั้นฉันเลยคิดว่ามูลค่าประเมินของ สตาร์ทอัป AI ชั้นแอปพลิเคชัน จำนวนมากตอนนี้ค่อนข้างไม่นิ่ง ถ้าบริษัท AI ใหญ่อย่าง Anthropic เริ่มขยายไปทำผลิตภัณฑ์แนวดิ่ง สมการมันก็เปลี่ยน
    แต่ก็สงสัยว่าพวกเขาจะทำต่ออย่างจริงจังแค่ไหน ข้อได้เปรียบที่สตาร์ทอัปบางรายยังพอเหลืออยู่ อาจเป็นความกลัวว่าชุดผลิตภัณฑ์จาก OpenAI/Anthropic อาจจบลงในสุสานแบบผลิตภัณฑ์ Google ภายใน 1-2 ปี

    • ก็คล้ายกับการถามว่า ถ้า AWS เริ่มทำแบบนั้นจะเกิดอะไรขึ้น พวกเขามีอินฟราฯ ครบอยู่แล้ว LLM เป็นแค่ฟันเฟืองหนึ่งชิ้นเท่านั้น และฝั่งแอปพลิเคชันยังมีงานอีกมากที่พวกนี้ยังไม่ได้ทำเลย
    • มูลค่าประเมินในวงการ AI ทั้งหมดไม่นิ่ง ไม่มีใครมีแผนธุรกิจที่แข็งแรงจริง ๆ มีแต่กระแส แต่เงินก็ยังไหลเข้าไม่หยุด
  • วลีที่ว่า “workflow งานกฎหมายที่เราเห็นบ่อยที่สุด” ฟังแล้วรู้สึกขัด ๆ นี่หมายความว่าอิงจาก เซสชันของลูกค้า ใช่ไหม? พวกเขามีสิทธิใช้ข้อมูลลูกค้าเพื่อสร้างฐานความรู้เกี่ยวกับทุกอาชีพ ทุกหัวข้อ และทุก workflow ทั่วโลกหรือ?

    • ฉันว่าใช่ พวกเขากำลังฝึก AI ด้วยข้อมูลจากบริษัทของคุณ เพื่อที่วันหนึ่งจะได้มาแทนธุรกิจของคุณ ถ้าไม่เชื่อ ก็ลองบอกมาสักอย่างสิว่ามีอะไรบ้างที่พวกเขาไม่ได้เอาไปฝึก
    • ใช่ อิงจากเซสชันของลูกค้า
      พวกเขาเชื่อว่าตัวเองมีสิทธินั้น และก็พูดเรื่องนี้ค่อนข้างเปิดเผยด้วย
      มันมีชื่อด้วย คือ Clio และตามหน้าเว็บบอกว่าเป็น “ระบบสำหรับอินไซต์ที่คำนึงถึงความเป็นส่วนตัวเกี่ยวกับการใช้ AI จริง”
      หน้าที่เกี่ยวข้องอยู่ที่นี่: https://www.anthropic.com/research/clio
    • ยังขึ้นอยู่กับว่าอิงตามกฎหมายของประเทศไหนด้วยใช่ไหม คุณก็น่าจะรู้ว่ากฎหมายแต่ละประเทศไม่เหมือนกัน?
    • “มีสิทธิทั้งทางกฎหมายและศีลธรรมหรือไม่” กับ “ทำตัวราวกับว่ามีสิทธิ” เป็นคนละเรื่องกัน เป็นคำถามใหญ่เลย
  • ถึงจุดหนึ่ง ทนาย นักกฎหมาย และผู้พิพากษาก็น่าจะใช้สิ่งนี้กัน แล้วทนายอาจกลายเป็นอะไรคล้าย ๆ ผู้เชี่ยวชาญ SEO/นักเขียนคำโฆษณา ที่เก่งกว่าในการหลอก LLM ฝั่งตรงข้าม

    • เราผ่านจุดนั้นไปไกลแล้ว ดูแค่จำนวนคดีทั่วโลกที่ทนายยื่นเอกสารต่อศาลโดยมี การอ้างคำพิพากษาหลอน ปะปนอยู่ก็พอ
    • อย่างไรเสียกฎหมายก็ถูกเขียนไว้ที่ไหนสักแห่ง มนุษย์ยังดูตัวบทจริงแล้วตัดสินได้ว่า AI กำลังพูดเหลวไหลอยู่หรือไม่
  • ในฐานะคนที่เคยว่าความแทนตัวเองในศาลมาก่อน ฉันว่ามันน่าสนใจชัดเจน
    แต่ในบางเขตอำนาจ เช่นสหราชอาณาจักร คุณไม่สามารถให้คำแนะนำทางกฎหมายกับใครแบบส่ง ๆ ได้ เว้นแต่จะได้รับการอนุญาตจาก SRA หรืออยู่ภายใต้การกำกับของ FCA ซึ่งหมายความว่าสิ่งนี้อาจทำให้ Anthropic กลายเป็น บริษัทจัดการการเรียกร้องค่าสินไหม โดยพฤตินัยตามกฎหมายอังกฤษ
    ตาม article 89I ของ Financial Services and Markets Act 2000 (Regulated Activities) Order 2001 การให้คำแนะนำแก่ผู้เรียกร้องหรือผู้ที่อาจเป็นผู้เรียกร้องในข้อเรียกร้องที่เกี่ยวกับบริการทางการเงินหรือผลิตภัณฑ์ทางการเงิน การสอบสวนข้อเรียกร้อง หรือการเป็นตัวแทนผู้เรียกร้อง ถือเป็นกิจกรรมที่อยู่ภายใต้การกำกับดูแลตามนิยาม
    https://www.fca.org.uk/freedom-information/dual-regulation-c...

  • ป่านนี้บริษัท AI น่าจะเรียนรู้แล้วว่าวงการกฎหมายไม่ใช่ที่ที่ควรเข้าไปแตะมั่ว ๆ แค่ดูประวัติก็พอ แต่พวกโลกสวยสาย AI กลุ่มนี้เหมือนจะไม่มี ความสามารถในการเรียนรู้

    • ฉันว่าเรื่องการเล่นกับวงการนี้จะไม่หยุดหรอก ทนายแพงมาก เลยมีผลตอบแทนที่เป็นไปได้สูงจากการแทนที่ด้วย AI แต่ก็มีคนที่คิดว่าบริษัท AI จะลงมาแข่งขันกับทนายด้วยการให้คำแนะนำทางกฎหมายโดยตรง ซึ่งฉันว่าไม่มีทางทำ เพราะมันเป็นทุ่งกับระเบิดด้านความรับผิด
      สิ่งที่พวกเขาจะทำคือขายบริการ AI ให้สำนักงานกฎหมาย แล้วให้สำนักงานกฎหมายนำไปใช้ในกระบวนการให้บริการทางกฎหมายของตัวเอง ซึ่งไม่ว่าจะดีหรือร้าย มันก็เกิดขึ้นแล้ว และสำนักงานกฎหมายองค์กรขนาดใหญ่แทบทั้งหมดก็ใช้ AI ในรูปแบบใดรูปแบบหนึ่ง ลูกค้าก็เรียกร้องด้วย ปัญหาจากการใช้ AI ในงานกฎหมายจะยังเกิดขึ้นต่อไป แต่ความรับผิดก็จะตกอยู่กับทนาย
    • ถ้าไม่ถูกบังคับให้รับภาระความรับผิดเอง มูลค่าด้านประชาสัมพันธ์ที่ได้จากเรื่องนี้อย่างเดียวก็คุ้มแล้ว สถานการณ์นี้ไม่ค่อยดีนัก
  • ชื่อองค์กร GitHub ว่า “Anthropics” ดูชวนให้เข้าใจผิดพอสมควร