6 คะแนน โดย davespark 29 일 전 | 2 ความคิดเห็น | แชร์ทาง WhatsApp

Wikipedia ออกนโยบาย ห้ามใช้ AI (LLM) ในการเขียนและแก้ไขบทความ แบบ ครอบคลุมทั้งหมด
หลังการอภิปรายที่มีบรรณาธิการอาสาหลายร้อยคนเข้าร่วม มติดังกล่าวก็ผ่านด้วยเสียงสนับสนุนอย่างท่วมท้น 40 ต่อ 2

ประเด็นสำคัญ

  • เหตุผลของการแบน: มีการประเมินว่าข้อความที่สร้างโดย LLM (โมเดลภาษาขนาดใหญ่) มักละเมิดนโยบายเนื้อหาหลักของ Wikipedia เช่น ความถูกต้องและความน่าเชื่อถือของแหล่งอ้างอิง โดย AI มักแต่งข้อเท็จจริงขึ้นเองหรือเพิ่มเนื้อหาที่ไม่ตรงกับแหล่งอ้างอิงซ้ำแล้วซ้ำเล่า
  • สาระสำคัญของนโยบาย: ห้ามอย่างสิ้นเชิงไม่ให้ใช้ AI เขียนบทความใหม่หรือเขียนบทความเดิมขึ้นมาใหม่

ข้อยกเว้น (2 กรณี)

  1. สามารถใช้ LLM เป็นเครื่องมือ ตรวจแก้พื้นฐาน (เช่น การสะกดและไวยากรณ์) ได้ เฉพาะกับข้อความที่ผู้ใช้เขียนเอง เท่านั้น
    → มนุษย์ต้องเป็นผู้ตรวจทานขั้นสุดท้ายเสมอ และห้ามให้ LLM เพิ่มเนื้อหาใหม่
  2. สามารถใช้ LLM เป็นเครื่องมือช่วย แปลบทความ Wikipedia ภาษาอื่นเป็นภาษาอังกฤษ ได้ (ต้องปฏิบัติตามแนวทางการแปลแยกต่างหากอย่างเคร่งครัด)

เบื้องหลัง

ก่อนหน้านี้ Wikipedia เคยทดลองใช้ AI อย่างจริงจัง (เช่น การทดลองสรุปอัตโนมัติด้วย AI) แต่ต้องยุติลงเพราะแรงคัดค้านอย่างหนักจากบรรณาธิการ
เมื่อบทความที่สงสัยว่าเป็นเนื้อหาที่สร้างโดย AI เพิ่มขึ้นอย่างรวดเร็ว จึงมีการสร้างโครงการ ‘WikiProject AI Cleanup’ เพื่อคัดกรองเนื้อหา AI และท้ายที่สุดก็นำไปสู่ข้อสรุปเป็นนโยบายแบนแบบครอบคลุมทั้งหมด

ความหมาย

การตัดสินใจครั้งนี้ได้รับความสนใจเพราะเป็นทางเลือกที่ ชุมชนอาสาสมัคร ตัดสินใจกันเอง ไม่ใช่การตัดสินใจจากบริษัท
ในยุคที่ AI กำลังกลายเป็นเครื่องมือเพิ่มประสิทธิภาพการทำงาน Wikipedia ได้วางเส้นแบ่งที่ชัดเจนโดยให้ ความถูกต้องและความน่าเชื่อถือของข้อมูล เป็นสิ่งสำคัญสูงสุด จึงถูกมองว่าเป็นกรณีตัวอย่างที่ชัดเจน

อ้างอิง: https://aisparkup.com/posts/10637

2 ความคิดเห็น

 
roxie 27 일 전

บัญชีนี้ก็ถูกดูแลโดย GeekNews เหมือนกันเหรอ?

 
hungryman 29 일 전

เข้าใจว่ามีนโยบายออกมาแล้ว แต่เขาจะบังคับใช้เรื่องนี้กันยังไงล่ะ