14 คะแนน โดย GN⁺ 2026-02-18 | 3 ความคิดเห็น | แชร์ทาง WhatsApp
  • เมื่อมีการปฏิเสธการ merge โค้ด AI กลับโพสต์ข้อความโจมตี และถึงขั้นมีการถอนบทความที่อ้างอิงคำพูดปลอมออกไป ทำให้เห็นถึงผลกระทบด้านลบของ AI ต่อระบบนิเวศโอเพนซอร์ส
  • ผู้ดูแลโอเพนซอร์สต้องแบกรับภาระการตรวจสอบที่พุ่งสูงจากโค้ด (PR) และบั๊กรีพอร์ตที่ไม่แม่นยำซึ่งสร้างโดย AI ขณะที่สัดส่วนรายงานที่มีประโยชน์จริงลดลงอย่างมาก
  • สถานการณ์เลวร้ายลงจน GitHub ต้องเพิ่มฟีเจอร์ปิดใช้งาน Pull Request เพื่อตอบรับปัญหานี้
  • โมเดล AI ไปถึงจุดชะงักงัน (plateau) ในด้านความสามารถในการสร้างโค้ดแล้ว และทรัพยากรของผู้ตรวจทานที่เป็นมนุษย์ก็แตะขีดจำกัด
  • บทความเตือนว่ากระแส AI กำลังมีลักษณะเป็นความร้อนแรงเชิงเก็งกำไรคล้ายกระแส NFT และคริปโต และกำลังบ่อนทำลายโอเพนซอร์สกับระบบนิเวศทางเทคโนโลยี

การปะทะกันระหว่าง AI กับโอเพนซอร์ส

ความเสียหายที่ผู้ดูแลโอเพนซอร์สต้องเผชิญ

  • Daniel Stenberg ผู้ดูแล curl ระงับโครงการ bug bounty เนื่องจากคุณภาพของบั๊กรีพอร์ตที่สร้างโดย AI ลดลง
    • สัดส่วนรายงานช่องโหว่ที่มีประโยชน์ลดจาก 15% เหลือ 5%
    • เขากล่าวว่า “ผู้ใช้ AI ไม่ได้มีส่วนร่วมกับการปรับปรุงจริง แต่กลับอ้างช่องโหว่เกินจริงและหวังเพียงเงินรางวัล”
  • Jeff Geerling ซึ่งดูแลโอเพนซอร์สกว่า 300 โครงการ ก็เปิดเผยว่า**‘slop PR’ ที่สร้างโดย AI (ข้อเสนอแก้โค้ดคุณภาพต่ำ)** เพิ่มขึ้นอย่างรวดเร็ว
  • GitHub เพิ่มฟีเจอร์ตั้งค่าปิดใช้งาน Pull Request เพราะปัญหาเหล่านี้
    • นี่เป็นกรณีแรกที่ฟีเจอร์หลักของ GitHub ถูกจำกัด และสะท้อนถึงการหดตัวเชิงโครงสร้างของการทำงานร่วมกันแบบโอเพนซอร์ส

ข้อจำกัดของการสร้างโค้ดด้วย AI

  • การสร้างโค้ดด้วย AI ไปถึงจุดชะงักงัน (plateau) ในระดับหนึ่งแล้ว และการยกระดับคุณภาพก็หยุดชะงัก
  • นักพัฒนาที่เป็นมนุษย์ซึ่งรับหน้าที่รีวิวโค้ดนั้นมีข้อจำกัด ต่างจากบริษัท AI ที่มีทรัพยากรแทบไม่สิ้นสุด
  • แม้บางฝ่ายจะอ้างว่า AI สามารถเข้ามาแทนการรีวิวโค้ดได้ แต่ Geerling เตือนว่าการใช้โค้ด AI ที่ยังไม่ผ่านการพิสูจน์ในสภาพแวดล้อมจริงเป็นเรื่องอันตราย
    • อาจยอมรับได้ในโปรเจกต์ทดลองส่วนตัว แต่ไม่เหมาะกับบริการเชิงพาณิชย์

กระแส AI กับความบิดเบี้ยวของระบบนิเวศเทคโนโลยี

  • การแพร่กระจายของ OpenClaw และการผลักดัน “ทำให้ agent เป็นของคนทั่วไป” ของ OpenAI มีแนวโน้มจะทำให้สถานการณ์เลวร้ายลง
  • Geerling ชี้ว่ากระแส AI ในปัจจุบันมีลักษณะเป็นความมองโลกในแง่ดีแบบไร้เหตุผลและความร้อนแรงเชิงเก็งกำไร คล้ายกระแสคริปโตและ NFT
  • แม้ LLM และแมชชีนเลิร์นนิงจะมีกรณีใช้งานที่เป็นประโยชน์จริง แต่โครงการเชิงหลอกลวงกำลังใช้สิ่งนี้เป็นข้ออ้างเพื่อทำลายระบบนิเวศโอเพนซอร์ส

สัญญาณความร้อนแรงเกินไปของอุตสาหกรรม AI

  • Western Digital ประกาศว่าสต็อกฮาร์ดดิสก์ปี 2026 ถูกขายหมดแล้วทั้งหมด โดยชี้ว่ามาจากอุปสงค์ด้าน AI ที่พุ่งสูง
  • Geerling มองว่านี่คือสัญญาณแบบฉบับของฟองสบู่ AI และกังวลว่า “บริษัท AI จะทำลายอะไรไปได้อีกมากแค่ไหนก่อนที่พวกเขาจะต้องจ่ายราคา”
  • เขาย้ำว่า AI ยังไม่ได้ “ดีพอ” ด้วยซ้ำ แต่กลับกำลังทำลายความน่าเชื่อถือและโครงสร้างความร่วมมือของโอเพนซอร์ส

ประสบการณ์ส่วนตัวและบทสรุป

  • Geerling ยอมรับว่า AI มีประโยชน์ในฐานะเครื่องมือช่วย จากประสบการณ์ใช้โอเพนโมเดลแบบรันในเครื่อง ย้ายบล็อกของตนจาก Drupal ไป Hugo
    • อย่างไรก็ตาม เขาทดสอบและตรวจทานโค้ดที่สร้างขึ้นทั้งหมดด้วยตนเองก่อนนำขึ้นใช้งาน และระบุว่าหากเป็นการมีส่วนร่วมกับโปรเจกต์ของผู้อื่น ก็ต้องมีการตรวจสอบที่เข้มงวดยิ่งกว่า
  • เขาสรุปว่า AI อาจช่วยเพิ่มประสิทธิภาพการพัฒนาได้ แต่ระบบอัตโนมัติที่ไร้การตรวจสอบกำลังคุกคามคุณภาพของโอเพนซอร์ส

3 ความคิดเห็น

 
jeeeyul 2026-02-19

แก่นสำคัญอย่างหนึ่งของโอเพนซอร์สน่าจะอยู่ที่โค้ดที่สามารถเปิดให้คนอื่นดูได้อย่างภาคภูมิไม่ใช่หรือครับ ทั้งความงามเชิงตรรกะ ความกระชับ และความน่าภูมิใจล้วนเป็นสิ่งจำเป็น มันเป็นโค้ดก็จริง แต่ก็เป็นบทกวีด้วย และมีเสน่ห์ต่างจากโค้ดเชิงอุตสาหกรรม

ตัวเอเจนต์เองก็ทำได้ค่อนข้างดีจนถึงขั้นตอนการวางแผนและขั้นทำแผนการพัฒนา แต่หลังจากนั้นก็แค่เปลี่ยนกลยุทธ์ไปเรื่อย ๆ จนกว่าจะผ่านฟังก์ชันตรวจสอบ ยิ่งลงลึกก็ยิ่งเกิดความเละเทะแบบคล้าย implementation trap ปัญหาคือมีผู้ใช้มนุษย์จำนวนไม่น้อยที่ขอแค่ให้มันรันได้ก็ OK

ท้ายที่สุดแล้ว บนพื้นฐานของความสอดคล้องกันทางปรัชญาในชุมชน การตรวจทานโดยมนุษย์ในขั้นตอนการวางแผนน่าจะต้องทำให้ดีขึ้นกว่านี้ แต่สิ่งนี้ต้องอาศัยทั้งสัญชาตญาณที่เหนือชั้นและความพยายาม อันที่จริงเพราะมันดูสมจริงเกินไป การดีบักแผนของเอเจนต์จึงไม่ใช่เรื่องง่ายเลย

พวกม็อดเดอเรเตอร์น่าจะเหนื่อยกันมากจริง ๆ ครับ

 
GN⁺ 2026-02-18
ความคิดเห็นจาก Hacker News
  • ไม่ใช่แค่ปัญหาของโอเพนซอร์สเท่านั้น แหล่งข้อมูลคุณภาพสูงกำลังถูกใช้งานอย่างหนักเกินไปจนเสียหาย
    StackOverflow แทบจะตายแล้ว(บทความที่เกี่ยวข้อง), ฝั่งสำนักพิมพ์ก็กำลังจำกัดการเข้าถึง Internet Archive วารสารวิชาการก็โดนเล่นงานจากงานวิจัยปลอม และรีวิวคุณภาพต่ำที่อิง LLM ขณะที่โปรเจ็กต์อย่าง OpenStreetMap ก็กำลังจ่ายต้นทุนมหาศาลเพราะการสแครปข้อมูล
    ให้ความรู้สึกเหมือนเราเปลี่ยนผ่านจากยุค data mining ไปสู่ยุค data fracking

    • StackOverflow ขาลงมาตั้งแต่ก่อน ChatGPT แล้ว หลังปี 2014 ก็ลดลงต่อเนื่อง ส่วนการร่วงหนักหลัง ChatGPT เป็นแค่ช่วงสั้น ๆ แต่แนวโน้มระยะยาวเหมือนเดิม
    • Reddit ก็แทบตายเพราะ AI เหมือนกัน ถ้าจำไม่ผิด การเปลี่ยน API ก็เป็นการตอบสนองช่วงแรกต่อ GPT เนื้อหาดี ๆ หายไป เหลือแต่ เศษขยะจาก AI
    • กระแส hype ของ AI กำลังทำให้อุตสาหกรรม IT ทั้งหมด แย่ลง
    • StackOverflow พังลงด้วยคำถามห่วย ๆ และ ความหยิ่งผยองของแอดมิน เอง คำถามดี ๆ ก็ถูกปิดทิ้งหมด Meta forum ก็เต็มไปด้วยคนหัวแข็ง แต่ไซต์ย่อยในเครือ SE อย่างทำอาหารหรือ LaTeX ยังทำงานได้ดีอยู่
    • ต่อให้ AI ไม่ทำให้มนุษยชาติล่มสลาย มันก็มีโอกาสสูงที่จะกลายเป็น เทคโนโลยีทำลายล้างที่สุดของคนรุ่นนี้ ทุกวันนี้สายใยทางสังคมก็พังไปมากแล้วเพราะโซเชียลมีเดียกับแอปแนวพนัน ภาวะซึมเศร้า ความโดดเดี่ยว และแนวคิดสุดโต่งเพิ่มขึ้น AI ดูเหมือนจะลบล้างนวัตกรรมเชิงบวกที่ยังเหลืออยู่ และขยายความไม่มั่นคงทางสังคมให้หนักขึ้น
  • ผมเขียนโค้ดเป็นงานอดิเรก ทุกวันนี้ก็ใช้ LLM เป็นส่วนใหญ่ โปรเจ็กต์ของผมไม่มีผู้ใช้เลย และก็ไม่เป็นไร
    แต่เวลาจะไปมีส่วนร่วมกับโอเพนซอร์สมันต่างออกไป เมื่อก่อนมือใหม่ยังค่อย ๆ เติบโตได้ผ่าน การมีพี่เลี้ยง แต่หลังมี LLM ก็แทบคุยกันไม่รู้เรื่อง เหมือน Linguini ในหนัง Pixar เรื่อง Ratatouille คือไม่ได้มีไฟอยากเรียนรู้ แค่ใส่ข้อความลงกล่องแล้วรอดูผลลัพธ์
    อย่าทำครัวของคนอื่นให้เละเพียงเพราะครัวของตัวเองเละอยู่เลย อยากให้เข้าหาด้วย ความเห็นอกเห็นใจ

    • OSS ขาดคนมาช่วยรีวิว PR ต่อให้ใช้เอเจนต์รีวิวอัตโนมัติ ต้นทุนก็สูงจนส่วนใหญ่รับไม่ไหว
    • LLM ดีสำหรับโปรเจ็กต์ส่วนตัว แต่เพราะ ค่าใช้จ่ายในการดำเนินงานสูง สุดท้ายเลยเกิดโครงสร้างที่พยายามยัดมันเข้าไปทุกที่
    • ถ้าเป้าหมายของโอเพนซอร์สไม่ใช่ตัวโค้ด แต่คือ การสร้างชุมชน AI ก็อาจสร้างผลิตภัณฑ์ชุมชนรูปแบบใหม่ได้เหมือนกัน
    • เพราะงั้น GitHub เลยกำลังเพิ่ม ฟังก์ชันบล็อก PR
    • ผมจะเปิด issue ก่อนเสมอ แล้วค่อยส่ง PR ถ้าเมนเทนเนอร์ช่วยกำหนดทิศทางให้ ผมก็คาดไว้อยู่แล้วว่าต้องแก้หลายรอบ
  • การแพร่กระจายของ AI เหมือน การโจมตี DDoS ที่ประณีตมาก มันไม่ได้กินแค่เซิร์ฟเวอร์ แต่กินความสนใจและทรัพยากรของคนด้วย
    คอนเทนต์จาก AI ส่วนใหญ่ คุณภาพต่ำ เลยทำให้คนล้าอย่างมาก วันหนึ่งมันอาจมีประโยชน์จริงก็ได้ แต่ตอนนี้ยังเป็นช่วงเปลี่ยนผ่านที่วุ่นวาย

    • AI คือ พฤติกรรมการบริโภคที่ปลอมตัวมาเป็นผลิตภาพ มันเป็นพิษต่อพื้นที่ที่คนลงมือสร้างอะไรด้วยตัวเอง
    • เทคโนโลยีที่พัฒนาไปไกลพอจะทำงานต่อสังคมเหมือน DDoS เสมอ ตอนนี้ก็เป็นช่วงที่เรากำลังทนแรงกระแทกนั้นอยู่
  • เดิมที code review ก็เป็นคอขวดอยู่แล้ว พอโค้ดที่ยังไม่ผ่านการทดสอบเพิ่มขึ้น ภาระของเมนเทนเนอร์ก็พุ่งทันที
    โอเพนซอร์สจำเป็นต้อง รับประกันคุณภาพโค้ด เพื่อรักษาความเข้ากันได้ในระยะยาว

    • เพราะอย่างนั้นในอดีตถึงมี pair programming เกิดขึ้น แต่คนกลับชอบทำงานกับเครื่องมากกว่าร่วมมือกับคนอื่น
  • LLM กำลัง ทำให้อินเทอร์เน็ตปนเปื้อนด้วยคอนเทนต์คุณภาพต่ำ จนไม่แน่ใจแล้วว่าอนาคตจะยังใช้เป็นข้อมูลฝึกได้หรือไม่

    • ไม่ใช่ AI ที่ทำให้อินเทอร์เน็ตพัง แต่เป็น เศรษฐกิจความสนใจที่ขับเคลื่อนด้วยโฆษณา ซึ่งกำลังทำลายมันอยู่ก่อนแล้ว AI แค่เร่งกระบวนการนั้น
    • AI เป็นแค่เครื่องมือ ผลลัพธ์ขึ้นอยู่กับ คุณภาพของความพยายาม ปัญหาคือผลลัพธ์ที่ทำแบบขอไปที
    • อินเทอร์เน็ตที่ผมชอบส่วนใหญ่เป็น คอนเทนต์ที่ไม่แสวงหากำไร ตัวทำลายที่แท้จริงคือ เศรษฐกิจความสนใจ ที่วิ่งตามรายได้โฆษณา
    • โครงสร้างเศรษฐกิจ ของแพลตฟอร์มคอนเทนต์เริ่มทำลายอินเทอร์เน็ตไปก่อนแล้ว ความเชื่อที่ว่า “คอนเทนต์ดีจะชนะเอง” พังทลายไปแล้ว
    • ต่อให้ก่อนยุค LLM ก็มี น้ำท่วมข้อมูลไร้ความหมาย อยู่แล้ว อย่างฟอรัม Microsoft หรือวิดีโอ YouTube ที่สร้างอัตโนมัติ
  • แก่นของปัญหาไม่ใช่ AI แต่เป็น ความไม่สมมาตรของความพยายาม เมื่อก่อนจะทำ PR แย่ ๆ อย่างน้อยก็ยังต้องออกแรงบ้าง แต่ตอนนี้แค่กดไม่กี่ครั้งก็ทำได้
    ฝั่งเมนเทนเนอร์ต้องการเครื่องมือคัดกรองทั้งทางเทคนิคและทางสังคม เหมือนสแปมอีเมลที่ต้องใช้ แนวทางผสมระหว่างเทคนิคกับนโยบาย

    • แต่ความไม่สมมาตรของความพยายามก็คือ เหตุผลที่ AI มีอยู่ ในตัวมันเอง สุดท้ายปัญหาก็คือ AI นั่นแหละ
    • LLM ก็อ่าน guideline ได้เหมือนกัน ดังนั้นฟิลเตอร์ง่าย ๆ แบบตอบควิซคงใช้ได้ไม่นาน วิธีที่มีแรงเสียดทานสูงกว่าอย่าง PR ผ่านอีเมล อาจดีกว่า
    • ควรมี ตัวเลือก สำหรับบล็อกการสร้าง PR ผ่าน API
    • LLM ดูเหมือนจะพาเราไปสู่ จุดจบของระบบที่ตั้งอยู่บนความไม่เปิดเผยตัวตน การผูกบัญชีกับตัวตนจริงอาจช่วยลดปัญหาสแปมกับบอตได้
  • ผมเจอบั๊กใน sqlcmd เวอร์ชัน Golang ของ Microsoft เมื่อสุดสัปดาห์ แล้วใช้ Claude ช่วยแก้
    การมีส่วนร่วมแบบมีเจตนา ลักษณะนี้เป็นผลดีต่อระบบนิเวศ

    • แต่ต้องตรวจสอบว่าที่แก้นั้นแก้ปัญหาได้จริง หรือว่า สร้างบั๊กใหม่ ขึ้นมา เมนเทนเนอร์ต้องดูผลกระทบทั้งหมด
    • การตัดสินทั้งเจตนาและคุณภาพของผู้มีส่วนร่วมต้องใช้ เวลาและแรงของมนุษย์ มาก
    • ปัญหาของ LLM คือ คนที่โยน PR เข้ามาโดยไม่ทดสอบ พวกเขาไม่ได้มุ่งหาผลลัพธ์ แต่มุ่งหาปริมาณงานส่งออก
    • ถ้าคุณทดสอบเองแล้วค่อยส่ง แบบนั้นก็ไม่ต่างจากวิธีเดิม ปัญหาคือ PR อัตโนมัติที่ไร้ความรับผิดชอบ
    • นี่เป็นตัวอย่างด้านบวก ถ้ามนุษย์ยังรับผิดชอบและใช้ AI เป็นเครื่องมือก็โอเค
    • อยากได้ลิงก์ PR นั้น
  • ในปี 2020 ก็มีนักเรียนส่ง PR มาแก้ README แค่บรรทัดเดียวเพื่อเอาเสื้อยืดกันล้นหลาม ต่อให้ไม่มี AI โอเพนซอร์สก็อยู่ในภาวะ งานล้นเกิน มานานแล้ว
    การส่งต่อความรู้ข้ามรุ่นขาดสะบั้น และระบบนิเวศก็ ไม่มั่นคงและเปราะบาง ขึ้นมาก
    ถึงอย่างนั้นโอเพนซอร์สก็ไม่ตาย ตราบใดที่ยังมีใครสักคนแชร์โปรเจ็กต์ที่ทำในห้องของตัวเอง มันก็ยังมีชีวิตอยู่
    เราต้องการมาตรฐานอย่าง เทมเพลตคู่มือการมีส่วนร่วม, เครื่องมือรายงานบั๊กอัตโนมัติ, และการฝึกเมนเทนเนอร์หน้าใหม่
    จะปิด PR กับ issue ไปเลยก็ได้ และไม่จำเป็นต้องใช้ GitHub ด้วย

    • แต่ AI อาจทำลาย การค้นพบโปรเจ็กต์และชุมชน ได้ GitHub ไม่ได้สำคัญเพราะมันสมบูรณ์แบบ แต่เพราะคนอยู่กันที่นั่น
    • ตอนนี้ เอเจนต์ AI อาจสร้างและแชร์โปรเจ็กต์ได้เอง แล้ว
    • ในอดีตก็เคยมีกรณีที่วิดีโอสอนเพียงคลิปเดียวทำให้คนจำนวนมากส่ง PR ที่ไม่มีความหมายเข้ามา
  • คำพูดว่า “พัฒนาการของ AI ชะงักแล้ว” ฟังดูแปลก ช่วงไม่กี่เดือนที่ผ่านมาเองก็มี การพัฒนาแบบก้าวกระโดด อย่าง Opus 4.5, 4.6, Codex 5.3
    ถ้าดูกราฟของ METR จะเห็นว่าปี 2024 มีช่วงชะลอบ้าง แต่ปี 2025 ก็กลับขึ้นมาเหนือเส้นแนวโน้มอีกครั้ง

    • บทความที่พูดถึงคำว่า “ชะงัก” นั้นเขียนก่อน Opus 4.5 เปิดตัวสองเดือน จริง ๆ แล้วมันไม่ได้ชะงัก
    • ฝั่งต่อต้าน LLM ชอบยกข้ออ้างแบบนี้บ่อย แต่ ความเร็วของความก้าวหน้า ยังสูงอยู่ น่าเสียดายที่ทั้งสองฝ่ายเริ่มคล้ายสงครามวัฒนธรรมที่ไม่สนหลักฐาน
    • ถ้ามองเป็นช่วงปีต่อปี อาจรู้สึกว่าพัฒนาขึ้นไม่มากนัก บางโปรเจ็กต์ก็ยัง ไม่ถึงระดับพร้อมใช้งานจริง
  • อินเทอร์เน็ตเมื่อก่อนเคยเป็นพื้นที่ที่สนุก แต่โฆษณากับโซเชียลมีเดียได้ ฆ่าความคิดสร้างสรรค์และการทำงานร่วมกัน ไปแล้ว
    เมื่อก่อนยังมีความหลงใหลแบบนั่งดีบักข้ามคืนไปพร้อมกินพิซซ่า แต่ตอนนี้มันน่าเบื่อเกินไป

    • ทุกวันนี้ก็ยังสนุกกับโปรเจ็กต์งานอดิเรกแบบเดิมได้ คนอื่นจะเล่น LLM กันอย่างไรก็ไม่ได้แย่งความสุขของผมไป ต่างคนต่างสนุกได้
    • ตอนนี้ AI ยังเน้นการใช้งานแบบ ไม่เป็นสังคม เป็นหลัก แต่ต่อไปมันอาจพัฒนาไปช่วยการทำงานร่วมกันก็ได้
    • เว็บมีการค้าแทรกอยู่มาตั้งแต่แบนเนอร์โฆษณาแรกในปี 1994 แล้ว โครงสร้างที่พึ่งโฆษณาไม่ใช่เรื่องใหม่
    • คนรุ่นผมเคยรู้สึกว่า AOL ทำลายอินเทอร์เน็ต AI ก็อาจเป็นแค่ ความเปลี่ยนแปลงที่ต้องยอมรับ อีกอย่างหนึ่ง
    • การบอกว่า “AI ฆ่าความคิดสร้างสรรค์” ก็เหมือนกับการบอกว่าการรักษาหลายขนานทำลายความเป็นน้ำหนึ่งใจเดียวกันของชุมชนผู้ป่วยโรคเรื้อน
 
realg 2026-02-18

นี่เป็นปัญหาของคนที่ใช้ AI แบบส่ง ๆ โดยไม่คิดหน้าคิดหลังมากกว่าจะเป็นปัญหาของ AI หรือเปล่า? บรรยากาศตอนนี้เหมือนพยายามโยนความผิดจากการกระทำที่ผิดของมนุษย์ไปให้ AI ตั้งแต่เนิ่น ๆ เลยนะ