- Wiki Education ได้ศึกษาผลกระทบของ Generative AI (เช่น ChatGPT) ต่อการแก้ไขวิกิพีเดียอย่างเป็นระบบตลอดปี 2025
- จากการวิเคราะห์บทความ 3,078 ชิ้นที่เขียนตั้งแต่ปี 2022 เป็นต้นมา โดยใช้เครื่องมือตรวจจับ AI อย่าง Pangram พบว่า 178 บทความน่าสงสัยว่าเขียนโดย AI และในจำนวนนั้น มากกว่าสองในสามตรวจสอบยืนยันไม่ผ่าน
- ด้วยเหตุนี้ จึงได้เพิ่มความเข้มข้นในการอบรมผู้เข้าร่วมโครงการ และนำ แนวทางการใช้ AI กับระบบตรวจจับแบบเรียลไทม์ มาใช้เพื่อป้องกันการคัดลอกและวางข้อความที่สร้างโดย AI โดยตรง
- AI ไม่เหมาะสำหรับการเขียนร่างบทความ แต่สามารถเป็นประโยชน์ในขั้นตอนการค้นคว้า เช่น การสำรวจข้อมูล การค้นหาแหล่งอ้างอิง และการระบุช่องว่างของเนื้อหา
- Wiki Education เน้นย้ำว่า การทำให้การตรวจจับ AI เป็นอัตโนมัติและการขยายการอบรมบรรณาธิการ คือกุญแจสำคัญในการรักษาความน่าเชื่อถือของวิกิพีเดีย
ความสัมพันธ์ระหว่าง Generative AI กับวิกิพีเดีย
- Wiki Education ดูแลผู้แก้ไขหน้าใหม่ที่ยังคงมีความเคลื่อนไหวอยู่ในวิกิพีเดียภาษาอังกฤษประมาณ 19% และได้วิเคราะห์ผลกระทบและความเสี่ยงของ Generative AI
- เมื่อแชตบอตอย่าง ChatGPT, Gemini, Claude กลายเป็นเรื่องปกติในชีวิตประจำวัน ความพยายามนำมาใช้ในการแก้ไขวิกิพีเดียก็เพิ่มขึ้น
- องค์กรได้ประเมินพฤติกรรมการใช้ AI ของผู้เข้าร่วมและเปิดเผยผลลัพธ์ดังกล่าว
- ข้อสรุปคือเสนอหลักการว่า ห้ามคัดลอกเอาผลลัพธ์จาก AI ไปวางในวิกิพีเดียโดยตรง
ผลการตรวจจับและการตรวจสอบ AI
- ในบรรดาบทความที่เขียนขึ้นหลังการเปิดตัว ChatGPT ในปี 2022 มี 178 บทความที่ Pangram ตรวจจับว่าเขียนโดย AI
- ก่อนปี 2022 ไม่พบร่องรอยการใช้ AI และหลังจากนั้นจึงค่อย ๆ เพิ่มขึ้น
- มีเพียง 7% เท่านั้นที่ใช้แหล่งอ้างอิงปลอม ส่วนที่เหลืออ้างอิงแหล่งข้อมูลจริง แต่ มากกว่า 2/3 ตรวจสอบยืนยันไม่ผ่าน
- ข้อมูลที่อ้างว่าอยู่ในแหล่งอ้างอิงนั้นไม่มีอยู่จริง จึงไม่สามารถยืนยันข้อเท็จจริงได้
- Wiki Education ต้องใช้กำลังคนจำนวนมากในการ จัดการบทความที่ตรวจสอบยืนยันไม่ผ่าน
- บางบทความถูกจัดเป็น
stub บางบทความถูกเสนอให้ลบ (PROD) และบางบทความถูกตัดสินว่าไม่สามารถกู้คืนได้
การปรับปรุงโครงการและระบบตรวจจับ AI
- ด้วยการสนับสนุนจาก Pangram จึงได้สร้างระบบสำหรับ วิเคราะห์การแก้ไขของผู้เข้าร่วมแบบเรียลไทม์
- มีการติดตามการแก้ไขและใช้งานฟังก์ชันแจ้งเตือนอัตโนมัติผ่านแพลตฟอร์ม Dashboard ภายในองค์กร
- มีการนำโมดูลการเรียนรู้ใหม่ “Using generative AI tools with Wikipedia” มาใช้
- แบ่งขอบเขตการใช้ AI ที่อนุญาตและต้องห้ามอย่างชัดเจน
- ย้ำข้อความสำคัญว่า “อย่าคัดลอกและวางข้อความจาก AI”
- ในช่วงครึ่งหลังของปี 2025 จาก คำเตือนการแก้ไขด้วย AI 1,406 ครั้ง มีเพียง 22% เท่านั้นที่เกิดขึ้นในเนมสเปซบทความจริง
- ส่วนใหญ่ถูกตรวจพบตั้งแต่ในขั้นตอน sandbox สำหรับฝึกซ้อม
- Pangram แสดง false positive บางส่วนกับข้อความที่ไม่ใช่ประโยค เช่น รูปแบบหรือรายการ แต่ยังคงมีความแม่นยำสูงในการวิเคราะห์ประโยคเนื้อหาหลัก
พฤติกรรมการใช้ AI และผลของการอบรม
- ในภาคการศึกษาฤดูใบไม้ร่วงปี 2025 จากผู้เข้าร่วม 6,357 คน มีเพียง 5% เท่านั้นที่ถูกตรวจพบ AI ในบทความจริง และส่วนใหญ่ถูกย้อนกลับทั้งด้วยมือหรืออัตโนมัติ
- ผู้เข้าร่วม ผู้สอน และผู้เชี่ยวชาญวิกิร่วมมือกันลบข้อความที่สร้างโดย AI ออก
- ผู้สอนประเมินงานของนักศึกษาโดยยึด ‘ความสามารถในการตรวจสอบได้ (verifiability)’ เป็นหลัก
- ยืนยันได้ว่าประโยคที่ AI สร้างขึ้นไม่สามารถตรวจสอบข้อเท็จจริงได้ จึงไม่เหมาะกับวิกิพีเดีย
- การแทรกแซงตั้งแต่เนิ่น ๆ ด้วย Pangram ช่วย ลดอัตราการใช้ AI จากที่คาดไว้ 25% เหลือ 5%
ศักยภาพด้านบวกของการใช้ AI
- AI มีประโยชน์ในขั้นตอนการค้นคว้า เช่น การระบุช่องว่างของบทความ การค้นหาแหล่งอ้างอิง และการชี้เส้นทางเข้าถึงข้อมูล
- จากรายงานการใช้งาน 102 ครั้งใน 7 รายวิชา 87% ตอบว่ามีประโยชน์
- เครื่องมือที่ใช้มากที่สุดคือ ChatGPT รองลงมาคือ Grammarly
- นักศึกษาใช้ AI สำหรับ การปรับแก้ประโยค การเสนอหมวดหมู่ และการประเมินร่างบทความ
- อย่างไรก็ตาม ไม่มีกรณีที่ใช้ AI เขียนเนื้อหาหลักของบทความ
- ย้ำว่า AI จะมีประโยชน์ก็ต่อเมื่อมีการตรวจทานผลลัพธ์อย่างวิพากษ์ และ การตัดสินใจของมนุษย์ยังคงจำเป็น
ข้อสรุปและแผนต่อไปของ Wiki Education
- Generative AI ในระดับปัจจุบันยัง สร้างข้อความที่ตรวจสอบยืนยันไม่ได้ จึงไม่เหมาะสำหรับการเขียนเนื้อหาหลักของวิกิพีเดีย
- เวลาที่ใช้ในการตรวจสอบประโยคที่ AI สร้างขึ้นมากกว่าการเขียนเองโดยตรง
- อย่างไรก็ตาม สามารถใช้เป็นเครื่องมือเสริมได้ในงานอย่าง การสำรวจข้อมูลและการหาไอเดีย
- มีแผนคงไว้และปรับปรุงระบบตรวจจับ Pangram ต่อไปในปี 2026
- หลังพบว่าในหมู่ผู้เข้าร่วมยังขาด ความรู้เท่าทัน AI จึงจะเพิ่มโมดูลการเรียนรู้เกี่ยวกับ โมเดลภาษาขนาดใหญ่ (LLM)
- กำลังทำวิจัยร่วมกับมหาวิทยาลัยพรินซ์ตันและหน่วยงานอื่น ๆ เกี่ยวกับ การเปลี่ยนแปลงของการแก้ไขของนักศึกษาก่อนและหลังการนำ AI มาใช้
- ยืนยันว่า Pangram ระบุการแก้ไขในช่วงปี 2015~2022 ว่าเป็นงานเขียนของมนุษย์ได้อย่างแม่นยำ 100%
นัยต่อวิกิพีเดียโดยรวม
- ในบรรดาผู้ใหญ่ทั่วโลก 10% ใช้ ChatGPT และในจำนวนนั้นมีไม่น้อยที่ใช้เพื่อเขียนข้อความ
- มีความเสี่ยงที่ผู้แก้ไขมือใหม่จะเพิ่มเนื้อหาที่สร้างโดย AI โดยไม่ตรวจสอบยืนยัน
- เครื่องมือตรวจจับอัตโนมัติอย่าง Pangram เป็นสิ่งจำเป็นต่อการรักษาคุณภาพของวิกิพีเดีย
- ปัจจุบันยังทำได้เพียงแสดงแบนเนอร์แบบแมนนวล จึงจำเป็นต้องมีระบบตรวจจับอัตโนมัติ
- มีข้อเสนอให้เพิ่มความเข้มข้นของ คำเตือนเรื่องการใช้ AI และการอบรมการแก้ไขที่ยึดแหล่งอ้างอิงเป็นศูนย์กลาง สำหรับผู้แก้ไขหน้าใหม่
- ซอฟต์แวร์ช่วยแก้ไขของมูลนิธิวิกิมีเดียก็ควรให้ความสำคัญกับแนวทางสรุปแบบที่มนุษย์เป็นศูนย์กลางเช่นกัน
- เพื่อให้วิกิพีเดีย ปรับตัวต่อการเปลี่ยนแปลงทางเทคโนโลยีและรักษาความน่าเชื่อถือไว้ได้ การพัฒนานโยบายและเครื่องมือที่เหมาะกับยุค AI จึงมีความสำคัญ
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
ในวิกิพีเดียมีปัญหาเรื่อง ตรวจสอบแหล่งอ้างอิงไม่ผ่าน แพร่หลายมานานแล้ว
ช่วงหลังมานี้ก็หาหลักฐานได้ยากว่าความถี่เพิ่มขึ้น
ดูเหมือนว่าผู้เขียนส่วนใหญ่จะเขียนจากสิ่งที่ตัวเองรู้ แล้วค่อยใส่อ้างอิงที่พอดูเข้าท่าแบบขั้นต่ำในภายหลัง
ความน่าเชื่อถือดูจะต่างกันไปตาม ระดับความเชี่ยวชาญ ของหน้าและความ เฉพาะทาง ของหัวข้อนั้น
ผู้ดำเนินรายการพบว่าตัวเองถูกระบุผิดว่า “มาจาก GitHub” และแขกรับเชิญก็ แก้ไขการอ้างอิงในวิกิพีเดียระหว่างอัดรายการ
พอชี้ปัญหาแบบนี้ บรรณาธิการบางคนกลับยืนยันว่า “วิกิพีเดียน่าเชื่อถือ”
ถ้าทัศนคติแบบนี้ไม่เปลี่ยน ก็คงยากที่จะดีขึ้น
เช่นกรณีที่ตีความพฤติกรรมของโมเลกุลน้ำผิด เป็นต้น
บทความนี้ย้ำถึงสามครั้งว่า อย่าก๊อปปี้แปะผลลัพธ์จาก Generative AI
ฉันก็มีประสบการณ์คล้ายกัน ตอนแรกมันน่าทึ่งและดูน่าเชื่อมาก แต่ไม่นานก็จะเห็นว่ามีทั้ง ภาพลวงและสัญญาณรบกวน ปะปนอยู่เยอะ
ถึงอย่างนั้นมันก็ยังมีประโยชน์พอสมควรกับการคิดไอเดียหรือระดมความคิด
เหตุผลที่ฉันเลือกชื่อนี้ก็เพื่อเน้นประเด็นหลักของบทความ
ประโยคที่ว่า “มากกว่าสองในสามของเอกสารที่ถูกติดธงตรวจสอบไม่ผ่าน” สะดุดตาเป็นพิเศษ
ถ้าลองตรวจอ้างอิงเองจะเจอ แหล่งที่มามั่ว ๆ เยอะมาก
AI อาจทำให้ปัญหาแย่ลงได้ แต่การแก้ไขด้วยเจตนาไม่ดีก็ยังเป็นฝีมือมนุษย์เหมือนเดิม
ฉันคิดว่าถ้อยคำนี้จับแก่นได้ดี
อยากรู้เหมือนกันว่าก่อนยุค AI อัตราความผิดพลาดของการอ้างอิงอยู่ที่ระดับไหน
บทความนี้ไม่ได้พูดถึงทั้งวิกิพีเดีย แต่พูดถึงเฉพาะการแก้ไขผ่าน โปรแกรม Wiki Edu
กล่าวคือเป็นเรื่องของบทความที่นักศึกษามหาวิทยาลัยเขียนเป็นงานในชั้นเรียน
สุดท้ายแล้วปัญหานี้จึงใกล้กับ พฤติกรรมการใช้ AI ในมหาวิทยาลัย มากกว่าจะเป็นปัญหาของวิกิพีเดียเอง
น่าเสียดายที่แม้แต่นักศึกษาปริญญาเอกบางคนก็ยังเขียนงานกันแบบนี้
พอไปอ่านแหล่งอ้างอิงจริงก็มักพบว่ามีการ เข้าใจความหมายผิดหรือสรุปผิด ๆ แบบกระอักกระอ่วน
LLM เป็นเครื่องมือที่เหมาะเจาะมากสำหรับ “การเขียนเอาคะแนน” ของนักศึกษาแบบนี้
นอกเหนือจากปัญหาของวิกิพีเดียแล้ว ปัญหาใหญ่กว่าคือมีคนนับล้านทั่วโลกสร้างข้อความด้วย LLM แล้วบางส่วนก็ ถูกเสพเหมือนเป็นข้อเท็จจริง
LLM ไม่มีหน้าที่ต้องยึดต่อความจริง และซื่อสัตย์แค่กับความต่อเนื่องทางไวยากรณ์เท่านั้น
บางครั้งมันบังเอิญถูก แต่ก็ไม่มั่นคงเสมอไป
แค่ดูบางเอกสารก็อาจเป็นไปได้ว่า สัดส่วนงานที่บอตเขียนถูกตรวจจับได้น้อยกว่าความเป็นจริง
กล่าวคืออาจมีการตรวจจับเฉพาะเอกสารที่ตรวจสอบไม่ผ่าน
รายละเอียดดูได้ใน PDF งานวิจัย
ในมุมของผู้ให้บริการ LLM มันเหมือนโศกนาฏกรรมแบบ การปนเปื้อนทรัพยากรร่วม
วิกิพีเดียเป็นสัดส่วนใหญ่ของข้อมูลฝึกอยู่แล้ว เลยสงสัยว่าทำไมถึงปล่อยให้ปนเปื้อนเอง
ถ้าวิกิพีเดียมีนโยบายห้ามใช้ AI ก็น่าสนใจดี
ใน GitHub ก็เกิดเรื่องแบบเดียวกัน
ไม่ใช่แค่วิกิพีเดีย ที่อื่นก็มี การอ้างอิงที่แหล่งที่มาไม่ตรงกับข้ออ้าง อยู่บ่อย
ฟีเจอร์ที่น่าจะมีประโยชน์จริงคือ แชตบอตสำหรับถามแนวทางการแก้ไข
ตอนนี้แม้แต่บรรณาธิการที่มีประสบการณ์ก็ยัง ตีความกฎตามใจตัวเอง ในหน้าพูดคุย
วัฒนธรรมแบบ “ย้อนการแก้ไขไปก่อนแล้วค่อยหาเหตุผลมาทีหลัง” เป็นกำแพงใหญ่สำหรับมือใหม่
เรื่องแบบนี้น่าจะเป็นจุดที่ บอตช่วยโต้แย้งกลับได้ทันที
อีกปัญหาหนึ่งคือวิกิแบบใช้ AI อย่าง Grokipedia
ภายนอกดูเนี้ยบกว่าและเหมาะกับมือถือมากกว่าวิกิพีเดีย แต่กลับมี ข้อมูลที่บิดเบือนโดยเจตนา อยู่
อาจมีบรรษัทขนาดใหญ่หรือกลุ่มการเมืองบางฝ่ายที่ต้องการทำให้ แหล่งข้อมูลแบบประชาธิปไตย อ่อนแอลง
ต้องระวังไม่ให้วิกิพีเดียตกเป็นเป้าของการโจมตีแบบนี้
จริงอยู่ว่าสแปม AI ทำให้คุณภาพลดลง แต่โดยพื้นฐานแล้วนี่คือ ปัญหาการควบคุมคุณภาพของวิกิพีเดีย
กระบวนการตรวจทานช้า และก็ไม่ได้รับประกันว่าข้อมูลใหม่จะถูกต้อง
ต่อให้สแปม AI หายไป ถ้าการควบคุมคุณภาพไม่ดีขึ้นก็ไม่มีความหมาย
วิกิพีเดียควรวางระบบควบคุมคุณภาพใหม่โดยมุ่งอธิบายให้ชัดเจนตาม ระดับผู้อ่านทั่วไป