3 คะแนน โดย GN⁺ 2026-03-07 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • โปรเจกต์โอเพนซอร์ส chardet v7.0.0 ได้เขียนโค้ดทั้งหมดขึ้นใหม่โดยใช้เครื่องมือ AI และเปลี่ยนไลเซนส์จาก LGPL เป็น MIT
  • ผู้เขียนดั้งเดิมอ้างว่ากระบวนการนี้อาจเป็น การละเมิด GPL และชี้ว่าผลงานที่ AI สร้างขึ้นจากการเรียนรู้โค้ดต้นฉบับนั้น ไม่ใช่ ‘การทำใหม่แบบ clean room’
  • โดยปกติวิธี clean room แบบดั้งเดิมต้องแยกเป็นสองทีม แต่ AI ได้ข้ามกำแพงนี้ไป ทำให้ประเด็นว่าถือเป็นงานดัดแปลงหรือไม่กลายเป็นข้อถกเถียง
  • ขณะเดียวกัน ศาลสูงสหรัฐไม่รับรองลิขสิทธิ์ของผลงานที่สร้างโดย AI ทำให้ ความเป็นเจ้าของและผลบังคับของไลเซนส์ ของโค้ดใหม่กลายเป็นเรื่องคลุมเครือ
  • หากกรณีลักษณะนี้ได้รับการยอมรับ ก็มีการเตือนถึง ความเสี่ยงที่ระบบ Copyleft จะหมดความหมาย

การเขียนใหม่ด้วย AI และการเปลี่ยนไลเซนส์ของโปรเจกต์ chardet

  • ไลบรารีตรวจจับ character encoding ของ Python อย่าง chardet เดิมเป็นการพอร์ตมาจากโค้ด C++ ของ Mozilla จึงอยู่ภายใต้ LGPL
    • ส่งผลให้ผู้ใช้ฝั่งองค์กรต้องเผชิญกับความไม่แน่นอนทางกฎหมาย
  • ผู้ดูแลโปรเจกต์ใช้ Claude Code เขียนโค้ดทั้งหมดขึ้นใหม่ และเผยแพร่ v7.0.0 ภายใต้ MIT License
  • ผู้เขียนดั้งเดิม a2mark ระบุว่าการดำเนินการนี้เป็น การละเมิด LGPL
    • โค้ดที่แก้ไขแล้วยังคงต้องอยู่ภายใต้ LGPL และข้ออ้างว่าเป็น “การเขียนใหม่ทั้งหมด” นั้นใช้ไม่ได้ เพราะเป็น ผลลัพธ์ที่สร้างขึ้นในสภาพที่ได้สัมผัสกับโค้ดต้นฉบับ
    • เขายังระบุชัดว่า การสร้างโค้ดด้วย AI ไม่ได้มอบสิทธิ์เพิ่มเติมใด ๆ

การทำใหม่แบบ clean room และการข้ามข้อจำกัดด้วย AI

  • การเขียนใหม่แบบ clean room rewrite ตามแนวทางดั้งเดิมประกอบด้วยสองทีม
    • ทีม A วิเคราะห์โค้ดต้นฉบับและเขียนสเปกของฟังก์ชันการทำงาน
    • ทีม B ไม่ดูต้นฉบับ และเขียนโค้ดใหม่จากสเปกเท่านั้น
  • แต่เมื่อ AI สร้างโค้ดจากการป้อนโค้ด LGPL ต้นฉบับเข้าไป การแยกขั้นตอนเชิงกระบวนการนี้ก็หายไป
  • หาก AI เรียนรู้จากโค้ดต้นฉบับแล้วสร้างผลลัพธ์ออกมา ผลงานนั้นก็อาจถูกมองว่าเป็น งานดัดแปลงภายใต้ LGPL

คำตัดสินของศาลสูงสหรัฐและความย้อนแย้งทางกฎหมาย

  • วันที่ 2 มีนาคม 2026 ศาลสูงสหรัฐปฏิเสธรับอุทธรณ์ในประเด็นการรับรองลิขสิทธิ์ของผลงานที่สร้างโดย AI
    • ทำให้คำตัดสินของศาลชั้นล่างเรื่อง ‘ข้อกำหนดผู้ประพันธ์ที่เป็นมนุษย์ (Human Authorship)’ ยังคงมีผล
  • ด้วยเหตุนี้ ผู้ดูแล chardet จึงเผชิญกับความขัดแย้งทางกฎหมาย 3 ประการ
    • ช่องว่างด้านลิขสิทธิ์: หากผลงานที่ AI สร้างไม่อยู่ภายใต้การคุ้มครองลิขสิทธิ์ ก็ไม่มีฐานทางกฎหมายสำหรับการรีไลเซนส์เป็น MIT
    • กับดักของงานดัดแปลง: หากเอาต์พุตของ AI เป็นงานดัดแปลงจากโค้ด LGPL เดิม ก็เท่ากับเป็นการละเมิดไลเซนส์
    • ช่องว่างด้านความเป็นเจ้าของ: หาก AI สร้างโค้ดใหม่ทั้งหมดจริง โค้ดนั้นก็อาจกลายเป็น public domain ทันที ทำให้ตัว MIT License เองไม่มีความหมาย

ผลกระทบที่อาจเกิดขึ้นต่อระบบ Copyleft

  • หากวิธีเปลี่ยนไลเซนส์ด้วยการเขียนใหม่โดย AI ได้รับอนุญาต ก็อาจทำให้ รากฐานของ Copyleft พังทลาย
  • ใครก็ตามอาจนำโปรเจกต์ GPL ป้อนให้ LLM แล้วสั่งให้ “เขียนใหม่ในอีกสไตล์หนึ่ง” ก่อน เผยแพร่ภายใต้ MIT License ได้
  • กรณีของ chardet v7.0.0 ถูกมองว่าเป็นกรณีจริงครั้งแรกที่เส้นแบ่งทางกฎหมายและจริยธรรมลักษณะนี้ถูกนำมาทดสอบ

1 ความคิดเห็น

 
GN⁺ 2026-03-07
ความเห็นจาก Hacker News
  • จากคำตอบของผู้ดูแล จะเห็นว่าได้ระบุชัดกับ Claude แล้วว่าอย่าอ้างอิงโค้ด LGPL/GPL แต่ก็มีความเป็นไปได้สูงว่าโมเดลได้เรียนรู้จากโค้ดนั้นไปแล้ว
    ปัจจุบันเป็นที่เข้าใจกันว่าแทบเป็นไปไม่ได้ที่ LLM จะ “ลืม” อิทธิพลจากข้อมูลฝึกได้อย่างสมบูรณ์
    มีโปรเจ็กต์นี้เป็นงานวิจัยที่เกี่ยวข้อง
    ฉันเป็นทั้งนักพัฒนาและทนายความด้านทรัพย์สินทางปัญญา และประเด็นแบบนี้ก็ยังคงพัฒนาไปเรื่อย ๆ ในศาลสหรัฐฯ
    อนึ่ง แผน enterprise แบบเสียเงินของ Anthropic จะ ชดใช้ค่าเสียหายให้ผู้ใช้ หากเกิดการละเมิดลิขสิทธิ์ แต่แผนฟรี/Pro/Max กลับกำหนดให้ผู้ใช้ต้องชดใช้ให้ Anthropic แทน (ข้อ 11 ของเงื่อนไขการใช้งาน)

    • ผู้ดูแลอ้างว่า “เขียนขึ้นใหม่ตั้งแต่ต้น” แต่ในความเป็นจริงกลับใช้ ข้อมูลทดสอบของ chardet ตรง ๆ และยังเป็นคนที่ดูแลโค้ดต้นฉบับมานานกว่าสิบปี
      การจะเป็น clean-room implementation อย่างแท้จริง ต้องแยกคนที่รู้โค้ดต้นฉบับออกจากคนที่เขียนใหม่ ซึ่งกรณีนี้ไม่ใช่แบบนั้น
    • มีการถกเถียงในประเด็นคล้ายกันในเธรดนี้ด้วย
    • เคยมีงานวิจัยที่ใช้วิธี masking โทเคนบางตัวแบบสุ่มระหว่างการฝึก เพื่อไม่ให้จดจำต้นฉบับตรง ๆ
      แนวคิดคือคงความหมายไว้ แต่ตัดบางส่วนของคำออกเพื่อ หลีกเลี่ยงการอ้างข้อความตรงตัว
    • เพิ่งรู้ครั้งแรกว่ามี ความต่างของข้อยกเว้นความรับผิด ระหว่างแผนเสียเงินแต่ละแบบ ซึ่งมีประโยชน์มาก
  • บทความนี้เข้าใจความหมายของ “clean-room implementation” ผิด
    มันไม่ใช่แค่ “ไม่ดูโค้ดต้นฉบับก็พอ” แต่ต้อง พัฒนาแยกอย่างอิสระจากสเปก API
    โค้ดที่ LLM สร้างมีโอกาสสูงที่จะคล้ายต้นฉบับ จึงเสี่ยงที่จะถูกมองเป็น งานที่คัดลอกมา ในทางกฎหมาย
    การกระทำของผู้ดูแล chardet ดูเป็นการ เปลี่ยนไลเซนส์อย่างไร้ความรับผิดชอบ ทางกฎหมาย และอาจก่อให้เกิด ปัญหาซัพพลายเชน ในอนาคต

    • มีการโต้แย้งโดยอ้างคำอธิบายทางกฎหมายว่า หากคนสองคนสร้างโค้ดเดียวกันขึ้นมาอย่างอิสระ แต่ละฝ่ายก็อาจมีลิขสิทธิ์ของตนเองได้
    • ลิขสิทธิ์จะถือว่าเป็นการคัดลอกก็ต่อเมื่อมี การไหลของข้อมูล เกิดขึ้น
      หากแค่ได้ผลลัพธ์เหมือนกัน นั่นเป็นเพียงผลลัพธ์เชิงหน้าที่ ไม่ใช่การละเมิดลิขสิทธิ์
    • การพัฒนาโดยอิง API ก็ยังมีความเสี่ยงทางกฎหมาย เช่นกรณี Google vs Oracle
      ดูบทความวิกิประกอบ
    • ก็มีบรรทัดฐานว่าถ้าดูไม่เห็นต้นฉบับแล้วเขียนขึ้นใหม่ ก็ถือว่าถูกกฎหมาย เช่นกรณี Phoenix clean room ของ IBM PC BIOS
    • หากปฏิบัติตามขั้นตอน CRRE(clean-room reverse engineering) อย่างครบถ้วน แม้โค้ดจะเหมือนกันแบบ 1:1 ก็ยังไม่ถือเป็นการคัดลอกในทางกฎหมาย
      แต่ในชั้นศาลจริง หากความคล้ายสูงมากก็ป้องกันตัวยาก
      กรณี chardet อาจจบลงเหมือนข้อพิพาทลิขสิทธิ์ฟอนต์ในญี่ปุ่น คือแม้ไม่ใช่การละเมิดอย่างเป็นสาระสำคัญ ก็อาจนำไปสู่การหยุดแจกจ่ายได้
  • “โค้ด LGPL ก็ยังเป็น LGPL”
    ถ้าไม่ได้รับความยินยอมอย่างชัดแจ้งจากผู้ถือลิขสิทธิ์เดิมทุกคน ก็ เปลี่ยนไลเซนส์ไม่ได้
    ต่อให้ AI เป็นผู้แปลงโค้ด ก็ไม่ได้หมายความว่าลิขสิทธิ์หายไป
    ไม่เช่นนั้นอุตสาหกรรมลิขสิทธิ์ทั้งระบบของสหรัฐฯ คงพังหมด

    • ในทางกฎหมายไม่ได้มีคุณสมบัติชื่อว่า “โค้ด LGPL” แยกต่างหาก แต่หัวใจคือ อนุญาตให้คัดลอกได้หรือไม่
      หากมีคนสร้างงานดัดแปลงโดยไม่ได้รับอนุญาต แล้วคนนั้นจะกลับมาให้อนุญาตต่ออีกที ก็เป็นปัญหาที่ซับซ้อน
    • คำตัดสินของ SCOTUS กลับยิ่งชี้ว่า ผลลัพธ์ที่ AI สร้าง ไม่มีความสร้างสรรค์เพียงพอ ซึ่งเป็นการเสริมสิทธิของผู้สร้างต้นฉบับมากกว่า
    • ถ้าเป็นการ เขียนใหม่แบบ clean room ด้วย AI ทั้งหมด อย่างสมบูรณ์ ก็อาจมองได้ว่าเป็น สาธารณสมบัติ แต่ในทางปฏิบัติกรณีแบบนั้นพบได้น้อยมาก
  • เพราะ generative AI ทำให้ ระบบลิขสิทธิ์ล้าหลังยุคสมัย
    กฎหมายในอดีตตั้งอยู่บนสมมติฐานของโมเดลที่มีวัตถุประสงค์เดียว แต่ตอนนี้มี โมเดลที่แข่งขันได้กับซอร์สทุกชนิด เกิดขึ้นแล้ว
    แม้แต่ กลยุทธ์ด้านไลเซนส์ ของ GNU ก็ตั้งอยู่บนความหายากของโค้ด แต่ตอนนี้โค้ดถูกสร้างได้ง่ายมากจนความหมายอ่อนลง

    • หากให้ AI อ่านโค้ดต้นฉบับแล้วสั่งให้ “เขียนใหม่” นั่นคือ งานดัดแปลง แต่ถ้าให้แค่คำอธิบายเชิงฟังก์ชัน ก็ถือเป็นงานสร้างใหม่
      หากมีคดีความ บันทึกการใช้งาน Claude อาจถูกใช้เป็นหลักฐานได้
    • บางคนวิจารณ์ว่านี่คือ “เปลี่ยนสมการด้วยการทำลายกฎหมาย”
    • เดิมทีแนวคิดคือไอเดียไม่ถูกคุ้มครอง แต่รูปแบบการแสดงออกถูกคุ้มครอง ทว่าใน ยุค AI สมมติฐานนี้เริ่มสั่นคลอน
      ตอนนี้เป็นยุคที่ การสร้างรูปแบบการแสดงออก ง่ายกว่าไอเดียเสียอีก
    • ในทางกลับกัน ก็มีความเห็นว่านี่เป็นสัญญาณเชิงบวกที่ ทำลายโครงสร้างผูกขาดด้วยลิขสิทธิ์
    • เป้าหมายของ GNU ไม่ใช่ตัวไลเซนส์ แต่คือ เสรีภาพของผู้ใช้
      โลกที่ทุกคนสร้างโค้ดได้ด้วย AI อาจใกล้เคียงอุดมคติที่ GNU เคยใฝ่ฝันไว้มากกว่าเสียอีก
  • มีการตั้งข้อสงสัยต่อข้ออ้างที่ว่า ถ้าโค้ดที่ AI สร้างเป็น งานใหม่จริง ๆ มันอาจกลายเป็น สาธารณสมบัติ ทันทีตั้งแต่ถูกสร้างขึ้น
    เพราะเราไม่อาจรู้ได้ว่าโมเดลฝึกจากข้อมูลใดบ้าง จึงอาจเข้าข่าย การย้อนรอยวิศวกรรม
    ดังนั้นควรใช้ไลเซนส์ที่ เข้มงวดที่สุด และบริษัท AI ควร แบ่งคืนรายได้ ให้ผู้สร้างต้นฉบับ

    • ถ้าเป็นแบบนั้นก็จะเท่ากับว่า “All Rights Reserved” ถูกนำมาใช้ ทำให้ ไม่สามารถใช้ผลลัพธ์จาก AI ได้เลย
      ในความเป็นจริง โมเดลที่ฝึกจากข้อมูลที่ได้รับอนุญาตเท่านั้นมีประสิทธิภาพต่ำมาก
      หากถือว่างานที่ AI สร้างทั้งหมดเป็นงานดัดแปลง ก็จะเท่ากับว่า ทุกโปรเจ็กต์โอเพนซอร์สปนเปื้อนหมด
    • ตราบใดที่ AI ไม่ได้คัดลอกต้นฉบับแทบทั้งหมด ศาลสหรัฐฯ มักไม่ถือว่าลิขสิทธิ์ของข้อมูลฝึกเป็นปัญหา
      สุดท้ายหากอยู่ในสภาพที่ ไม่มีใครนอกจากมนุษย์สามารถอ้างกรรมสิทธิ์ได้ ก็แทบจะถูกปฏิบัติเสมือนเป็นสาธารณสมบัติ
    • ถึงขั้นมีข้อเสนอเชิงขำ ๆ ว่าให้ถือว่าโค้ดทั้งหมดที่ LLM สร้างเป็น GPL v3 ไปเลย
    • ก็มีความเห็นเชิงประชดว่ากฎหมายจะเปลี่ยนก็ต่อเมื่อผลประโยชน์ของ Disney ถูกกระทบ
    • ความรับผิดทางกฎหมายจะต่างกันไปตามว่า AI ใช้โค้ดต้นฉบับโดยตรง หรือเขียนใหม่ผ่านรูปแบบตัวกลาง
  • มีอีกเธรดหนึ่งที่เกี่ยวข้องในหัวข้อ “No right to relicense this project”

    • แต่กรณีนั้นดูเหมือนเป็นแค่ โปรเจ็กต์ที่ถูกขโมยไป ขณะที่กรณี chardet รอบนี้ ประเด็นหลักคือ ความชอบธรรมของการเขียนใหม่ด้วย AI
  • มีการโต้แย้งต่อข้ออ้างที่ว่า ถ้าโค้ดที่ AI สร้างเป็นสาธารณสมบัติจริง ก็แปลว่า ไลเซนส์ MIT เองก็ไม่มีความหมาย
    งานที่ AI สร้างไม่เหมือนการคัดลอกตรง ๆ และยังคงอยู่ภายใต้ ข้อจำกัดของไลเซนส์ต้นฉบับ

    • เนื่องจากผลลัพธ์ที่ AI สร้าง ไม่ถูกยอมรับเป็นงานอันมีลิขสิทธิ์ในทางกฎหมาย จึงไม่มีใครสามารถออกไลเซนส์ให้มันได้
      เช่น เครื่องสร้างบทกวีที่ฝึกจาก Project Gutenberg ก็ไม่อาจอ้างลิขสิทธิ์ได้
    • แต่ในกรณีของโค้ดนั้น มาตรฐานทางกฎหมายยังไม่ชัดเจน
      เครื่องมืออย่างแมโคร เครื่องมือสร้างโค้ด หรือฟีเจอร์อัตโนมัติแบบ Intellisense ยังมีเส้นแบ่งไม่ชัดว่าแค่ไหนจึงเรียกว่า “AI-generated”
    • มีคนช่วยแก้ว่าไม่ใช่ “copywrite” แต่ต้องเป็น “copyright”
    • และก็มีความเห็นว่า หากมนุษย์ เข้าไปมีส่วนสร้างสรรค์ กับผลลัพธ์จาก AI ก็ยังอาจได้รับความคุ้มครองลิขสิทธิ์
  • ในอดีตเคยมีการหารือว่าจะนำ chardet เข้าไปในไลบรารีมาตรฐานของ Python
    แต่เห็นว่าความเป็นไปได้นั้นหมดไปแล้ว เพราะข้อถกเถียงเรื่อง การเปลี่ยนไลเซนส์ ครั้งนี้
    ดูการถกเถียงที่เกี่ยวข้องได้ในissue นี้ และ
    คำพูดของผู้ดูแล 1, คำพูด 2

  • การ เปลี่ยนไลเซนส์ด้วย AI ในลักษณะนี้ อาจหมายถึงจุดจบของโอเพนซอร์ส โดยเฉพาะ Copyleft
    หากไลเซนส์ไม่สามารถทำหน้าที่ปกป้องได้อีก นักพัฒนาก็จะหันกลับไปสู่ การพัฒนาแบบปิด

    • ฉันเองก็เลยหยุดปล่อยโอเพนซอร์สโดยสิ้นเชิงแล้ว
      โมเดลรุ่นใหม่ล่าสุดสามารถทำ วิศวกรรมย้อนกลับ WebAssembly ได้แล้ว จนให้ความรู้สึกเหมือน ทฤษฎีป่ามืด
    • เรื่องนี้ไม่ได้กระทบแค่วงการโอเพนซอร์ส แต่รวมถึง ทุกโปรเจ็กต์ที่เปิดเผยซอร์ส
    • จุดประสงค์ของ GPL ไม่ใช่ “ป้องกันการใช้งานที่ไม่ต้องการ” แต่คือ บังคับให้เปิดเผยซอร์สเมื่อมีการแก้ไข
      หากงานเขียนใหม่ด้วย AI เป็น GPL งานนั้นก็ควรต้องเปิดเผยด้วยเช่นกัน
    • ก็มีเสียงโต้แย้งว่า การจะปิด “ซอฟต์แวร์เสรี” เสียเองนั้น ขัดกับ ปรัชญาแห่งเสรีภาพ ตั้งแต่แรก
  • เห็นด้วยกับข้อสรุปที่ว่า “ถ้าการเขียนใหม่ด้วย AI เปลี่ยนไลเซนส์ได้จริง ลิขสิทธิ์ทั้งหมดก็จะพังทลาย
    เพราะหลักการเดียวกันนี้ใช้ได้กับภาพยนตร์ เพลง นวนิยาย และงานสร้างสรรค์ทุกประเภท
    ท้ายที่สุดศาลน่าจะ ไม่ยอมรับความพยายามแบบนี้ว่าเป็นการเลี่ยงลิขสิทธิ์ และ
    หวังว่าโปรเจ็กต์ chardet จะไม่กลายเป็น หนูทดลอง ท่ามกลางคลื่นกฎหมายลูกใหญ่