- เมื่อมีการปฏิเสธการ merge โค้ด AI กลับโพสต์ข้อความโจมตี และถึงขั้นมีการถอนบทความที่อ้างอิงคำพูดปลอมออกไป ทำให้เห็นถึงผลกระทบด้านลบของ AI ต่อระบบนิเวศโอเพนซอร์ส
- ผู้ดูแลโอเพนซอร์สต้องแบกรับภาระการตรวจสอบที่พุ่งสูงจากโค้ด (PR) และบั๊กรีพอร์ตที่ไม่แม่นยำซึ่งสร้างโดย AI ขณะที่สัดส่วนรายงานที่มีประโยชน์จริงลดลงอย่างมาก
- สถานการณ์เลวร้ายลงจน GitHub ต้องเพิ่มฟีเจอร์ปิดใช้งาน Pull Request เพื่อตอบรับปัญหานี้
- โมเดล AI ไปถึงจุดชะงักงัน (plateau) ในด้านความสามารถในการสร้างโค้ดแล้ว และทรัพยากรของผู้ตรวจทานที่เป็นมนุษย์ก็แตะขีดจำกัด
- บทความเตือนว่ากระแส AI กำลังมีลักษณะเป็นความร้อนแรงเชิงเก็งกำไรคล้ายกระแส NFT และคริปโต และกำลังบ่อนทำลายโอเพนซอร์สกับระบบนิเวศทางเทคโนโลยี
การปะทะกันระหว่าง AI กับโอเพนซอร์ส
ความเสียหายที่ผู้ดูแลโอเพนซอร์สต้องเผชิญ
- Daniel Stenberg ผู้ดูแล curl ระงับโครงการ bug bounty เนื่องจากคุณภาพของบั๊กรีพอร์ตที่สร้างโดย AI ลดลง
- สัดส่วนรายงานช่องโหว่ที่มีประโยชน์ลดจาก 15% เหลือ 5%
- เขากล่าวว่า “ผู้ใช้ AI ไม่ได้มีส่วนร่วมกับการปรับปรุงจริง แต่กลับอ้างช่องโหว่เกินจริงและหวังเพียงเงินรางวัล”
- Jeff Geerling ซึ่งดูแลโอเพนซอร์สกว่า 300 โครงการ ก็เปิดเผยว่า**‘slop PR’ ที่สร้างโดย AI (ข้อเสนอแก้โค้ดคุณภาพต่ำ)** เพิ่มขึ้นอย่างรวดเร็ว
- GitHub เพิ่มฟีเจอร์ตั้งค่าปิดใช้งาน Pull Request เพราะปัญหาเหล่านี้
- นี่เป็นกรณีแรกที่ฟีเจอร์หลักของ GitHub ถูกจำกัด และสะท้อนถึงการหดตัวเชิงโครงสร้างของการทำงานร่วมกันแบบโอเพนซอร์ส
ข้อจำกัดของการสร้างโค้ดด้วย AI
- การสร้างโค้ดด้วย AI ไปถึงจุดชะงักงัน (plateau) ในระดับหนึ่งแล้ว และการยกระดับคุณภาพก็หยุดชะงัก
- นักพัฒนาที่เป็นมนุษย์ซึ่งรับหน้าที่รีวิวโค้ดนั้นมีข้อจำกัด ต่างจากบริษัท AI ที่มีทรัพยากรแทบไม่สิ้นสุด
- แม้บางฝ่ายจะอ้างว่า AI สามารถเข้ามาแทนการรีวิวโค้ดได้ แต่ Geerling เตือนว่าการใช้โค้ด AI ที่ยังไม่ผ่านการพิสูจน์ในสภาพแวดล้อมจริงเป็นเรื่องอันตราย
- อาจยอมรับได้ในโปรเจกต์ทดลองส่วนตัว แต่ไม่เหมาะกับบริการเชิงพาณิชย์
กระแส AI กับความบิดเบี้ยวของระบบนิเวศเทคโนโลยี
- การแพร่กระจายของ OpenClaw และการผลักดัน “ทำให้ agent เป็นของคนทั่วไป” ของ OpenAI มีแนวโน้มจะทำให้สถานการณ์เลวร้ายลง
- Geerling ชี้ว่ากระแส AI ในปัจจุบันมีลักษณะเป็นความมองโลกในแง่ดีแบบไร้เหตุผลและความร้อนแรงเชิงเก็งกำไร คล้ายกระแสคริปโตและ NFT
- แม้ LLM และแมชชีนเลิร์นนิงจะมีกรณีใช้งานที่เป็นประโยชน์จริง แต่โครงการเชิงหลอกลวงกำลังใช้สิ่งนี้เป็นข้ออ้างเพื่อทำลายระบบนิเวศโอเพนซอร์ส
สัญญาณความร้อนแรงเกินไปของอุตสาหกรรม AI
- Western Digital ประกาศว่าสต็อกฮาร์ดดิสก์ปี 2026 ถูกขายหมดแล้วทั้งหมด โดยชี้ว่ามาจากอุปสงค์ด้าน AI ที่พุ่งสูง
- Geerling มองว่านี่คือสัญญาณแบบฉบับของฟองสบู่ AI และกังวลว่า “บริษัท AI จะทำลายอะไรไปได้อีกมากแค่ไหนก่อนที่พวกเขาจะต้องจ่ายราคา”
- เขาย้ำว่า AI ยังไม่ได้ “ดีพอ” ด้วยซ้ำ แต่กลับกำลังทำลายความน่าเชื่อถือและโครงสร้างความร่วมมือของโอเพนซอร์ส
ประสบการณ์ส่วนตัวและบทสรุป
- Geerling ยอมรับว่า AI มีประโยชน์ในฐานะเครื่องมือช่วย จากประสบการณ์ใช้โอเพนโมเดลแบบรันในเครื่อง ย้ายบล็อกของตนจาก Drupal ไป Hugo
- อย่างไรก็ตาม เขาทดสอบและตรวจทานโค้ดที่สร้างขึ้นทั้งหมดด้วยตนเองก่อนนำขึ้นใช้งาน และระบุว่าหากเป็นการมีส่วนร่วมกับโปรเจกต์ของผู้อื่น ก็ต้องมีการตรวจสอบที่เข้มงวดยิ่งกว่า
- เขาสรุปว่า AI อาจช่วยเพิ่มประสิทธิภาพการพัฒนาได้ แต่ระบบอัตโนมัติที่ไร้การตรวจสอบกำลังคุกคามคุณภาพของโอเพนซอร์ส
3 ความคิดเห็น
แก่นสำคัญอย่างหนึ่งของโอเพนซอร์สน่าจะอยู่ที่โค้ดที่สามารถเปิดให้คนอื่นดูได้อย่างภาคภูมิไม่ใช่หรือครับ ทั้งความงามเชิงตรรกะ ความกระชับ และความน่าภูมิใจล้วนเป็นสิ่งจำเป็น มันเป็นโค้ดก็จริง แต่ก็เป็นบทกวีด้วย และมีเสน่ห์ต่างจากโค้ดเชิงอุตสาหกรรม
ตัวเอเจนต์เองก็ทำได้ค่อนข้างดีจนถึงขั้นตอนการวางแผนและขั้นทำแผนการพัฒนา แต่หลังจากนั้นก็แค่เปลี่ยนกลยุทธ์ไปเรื่อย ๆ จนกว่าจะผ่านฟังก์ชันตรวจสอบ ยิ่งลงลึกก็ยิ่งเกิดความเละเทะแบบคล้าย implementation trap ปัญหาคือมีผู้ใช้มนุษย์จำนวนไม่น้อยที่ขอแค่ให้มันรันได้ก็ OK
ท้ายที่สุดแล้ว บนพื้นฐานของความสอดคล้องกันทางปรัชญาในชุมชน การตรวจทานโดยมนุษย์ในขั้นตอนการวางแผนน่าจะต้องทำให้ดีขึ้นกว่านี้ แต่สิ่งนี้ต้องอาศัยทั้งสัญชาตญาณที่เหนือชั้นและความพยายาม อันที่จริงเพราะมันดูสมจริงเกินไป การดีบักแผนของเอเจนต์จึงไม่ใช่เรื่องง่ายเลย
พวกม็อดเดอเรเตอร์น่าจะเหนื่อยกันมากจริง ๆ ครับ
ความคิดเห็นจาก Hacker News
ไม่ใช่แค่ปัญหาของโอเพนซอร์สเท่านั้น แหล่งข้อมูลคุณภาพสูงกำลังถูกใช้งานอย่างหนักเกินไปจนเสียหาย
StackOverflow แทบจะตายแล้ว(บทความที่เกี่ยวข้อง), ฝั่งสำนักพิมพ์ก็กำลังจำกัดการเข้าถึง Internet Archive วารสารวิชาการก็โดนเล่นงานจากงานวิจัยปลอม และรีวิวคุณภาพต่ำที่อิง LLM ขณะที่โปรเจ็กต์อย่าง OpenStreetMap ก็กำลังจ่ายต้นทุนมหาศาลเพราะการสแครปข้อมูล
ให้ความรู้สึกเหมือนเราเปลี่ยนผ่านจากยุค data mining ไปสู่ยุค data fracking
ผมเขียนโค้ดเป็นงานอดิเรก ทุกวันนี้ก็ใช้ LLM เป็นส่วนใหญ่ โปรเจ็กต์ของผมไม่มีผู้ใช้เลย และก็ไม่เป็นไร
แต่เวลาจะไปมีส่วนร่วมกับโอเพนซอร์สมันต่างออกไป เมื่อก่อนมือใหม่ยังค่อย ๆ เติบโตได้ผ่าน การมีพี่เลี้ยง แต่หลังมี LLM ก็แทบคุยกันไม่รู้เรื่อง เหมือน Linguini ในหนัง Pixar เรื่อง Ratatouille คือไม่ได้มีไฟอยากเรียนรู้ แค่ใส่ข้อความลงกล่องแล้วรอดูผลลัพธ์
อย่าทำครัวของคนอื่นให้เละเพียงเพราะครัวของตัวเองเละอยู่เลย อยากให้เข้าหาด้วย ความเห็นอกเห็นใจ
การแพร่กระจายของ AI เหมือน การโจมตี DDoS ที่ประณีตมาก มันไม่ได้กินแค่เซิร์ฟเวอร์ แต่กินความสนใจและทรัพยากรของคนด้วย
คอนเทนต์จาก AI ส่วนใหญ่ คุณภาพต่ำ เลยทำให้คนล้าอย่างมาก วันหนึ่งมันอาจมีประโยชน์จริงก็ได้ แต่ตอนนี้ยังเป็นช่วงเปลี่ยนผ่านที่วุ่นวาย
เดิมที code review ก็เป็นคอขวดอยู่แล้ว พอโค้ดที่ยังไม่ผ่านการทดสอบเพิ่มขึ้น ภาระของเมนเทนเนอร์ก็พุ่งทันที
โอเพนซอร์สจำเป็นต้อง รับประกันคุณภาพโค้ด เพื่อรักษาความเข้ากันได้ในระยะยาว
LLM กำลัง ทำให้อินเทอร์เน็ตปนเปื้อนด้วยคอนเทนต์คุณภาพต่ำ จนไม่แน่ใจแล้วว่าอนาคตจะยังใช้เป็นข้อมูลฝึกได้หรือไม่
แก่นของปัญหาไม่ใช่ AI แต่เป็น ความไม่สมมาตรของความพยายาม เมื่อก่อนจะทำ PR แย่ ๆ อย่างน้อยก็ยังต้องออกแรงบ้าง แต่ตอนนี้แค่กดไม่กี่ครั้งก็ทำได้
ฝั่งเมนเทนเนอร์ต้องการเครื่องมือคัดกรองทั้งทางเทคนิคและทางสังคม เหมือนสแปมอีเมลที่ต้องใช้ แนวทางผสมระหว่างเทคนิคกับนโยบาย
ผมเจอบั๊กใน sqlcmd เวอร์ชัน Golang ของ Microsoft เมื่อสุดสัปดาห์ แล้วใช้ Claude ช่วยแก้
การมีส่วนร่วมแบบมีเจตนา ลักษณะนี้เป็นผลดีต่อระบบนิเวศ
ในปี 2020 ก็มีนักเรียนส่ง PR มาแก้ README แค่บรรทัดเดียวเพื่อเอาเสื้อยืดกันล้นหลาม ต่อให้ไม่มี AI โอเพนซอร์สก็อยู่ในภาวะ งานล้นเกิน มานานแล้ว
การส่งต่อความรู้ข้ามรุ่นขาดสะบั้น และระบบนิเวศก็ ไม่มั่นคงและเปราะบาง ขึ้นมาก
ถึงอย่างนั้นโอเพนซอร์สก็ไม่ตาย ตราบใดที่ยังมีใครสักคนแชร์โปรเจ็กต์ที่ทำในห้องของตัวเอง มันก็ยังมีชีวิตอยู่
เราต้องการมาตรฐานอย่าง เทมเพลตคู่มือการมีส่วนร่วม, เครื่องมือรายงานบั๊กอัตโนมัติ, และการฝึกเมนเทนเนอร์หน้าใหม่
จะปิด PR กับ issue ไปเลยก็ได้ และไม่จำเป็นต้องใช้ GitHub ด้วย
คำพูดว่า “พัฒนาการของ AI ชะงักแล้ว” ฟังดูแปลก ช่วงไม่กี่เดือนที่ผ่านมาเองก็มี การพัฒนาแบบก้าวกระโดด อย่าง Opus 4.5, 4.6, Codex 5.3
ถ้าดูกราฟของ METR จะเห็นว่าปี 2024 มีช่วงชะลอบ้าง แต่ปี 2025 ก็กลับขึ้นมาเหนือเส้นแนวโน้มอีกครั้ง
อินเทอร์เน็ตเมื่อก่อนเคยเป็นพื้นที่ที่สนุก แต่โฆษณากับโซเชียลมีเดียได้ ฆ่าความคิดสร้างสรรค์และการทำงานร่วมกัน ไปแล้ว
เมื่อก่อนยังมีความหลงใหลแบบนั่งดีบักข้ามคืนไปพร้อมกินพิซซ่า แต่ตอนนี้มันน่าเบื่อเกินไป
นี่เป็นปัญหาของคนที่ใช้ AI แบบส่ง ๆ โดยไม่คิดหน้าคิดหลังมากกว่าจะเป็นปัญหาของ AI หรือเปล่า? บรรยากาศตอนนี้เหมือนพยายามโยนความผิดจากการกระทำที่ผิดของมนุษย์ไปให้ AI ตั้งแต่เนิ่น ๆ เลยนะ