11 คะแนน โดย GN⁺ 2025-11-02 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • หมวด วิทยาการคอมพิวเตอร์ (CS) ของ arXiv ได้นำ แนวปฏิบัติการพิจารณาใหม่ สำหรับบทความรีวิว (survey) และบทความแสดงจุดยืนมาใช้
  • จากนี้บทความประเภทดังกล่าวจะสามารถส่งเข้า arXiv ได้ ก็ต่อเมื่อผ่านการประเมินโดยผู้ทรงคุณวุฒิ (peer review) และได้รับการตอบรับจากวารสารหรือการประชุมวิชาการแล้วเท่านั้น
  • ขณะส่งต้องแนบ เอกสารยืนยันว่าผ่านการประเมินโดยผู้ทรงคุณวุฒิสำเร็จแล้ว (เช่น ข้อมูลอ้างอิงวารสาร, DOI metadata) มาด้วยเสมอ
  • งานส่งที่ไม่มีเอกสารยืนยันมีโอกาสสูงที่จะถูกปฏิเสธ ซึ่งเป็นมาตรการเพื่อตอบสนองต่อ การหลั่งไหลเข้ามาของบทความจำนวนมากเกินไปจาก generative AI ในช่วงหลัง
  • arXiv มีเป้าหมายจากการเปลี่ยนแปลงนี้เพื่อ แบ่งปันเฉพาะบทความทบทวนคุณภาพสูง และมุ่งเน้นการเผยแพร่งานวิจัยหลัก

ข้อกำหนดการส่งที่เปลี่ยนไป

  • บทความรีวิวและบทความแสดงจุดยืนจะส่งเข้า arXiv ได้ หลังจากได้รับการตอบรับจากวารสารหรือการประชุมวิชาการและผ่าน peer review แล้วเท่านั้น
    • ขณะส่งต้องแนบ เอกสารหลักฐานการผ่าน peer review สำเร็จ มาด้วย
    • หากไม่มีหลักฐาน มีโอกาสสูงที่จะถูกปฏิเสธ
  • การพิจารณาระดับเวิร์กช็อป ไม่นับเป็นการประเมินแบบ peer review ตามความหมายดั้งเดิม และไม่เข้าเกณฑ์ข้อกำหนดการส่ง

เบื้องหลังเชิงนโยบาย

  • ตามนโยบายทางการของ arXiv บทความรีวิวและบทความแสดงจุดยืน ไม่ใช่ประเภทเนื้อหาที่อนุญาตอย่างเป็นทางการ
    • ในอดีตมีเพียง บทความคุณภาพสูงจำนวนไม่มาก เท่านั้นที่ถูกรับเข้าโดย ดุลยพินิจของผู้ดูแลหมวด
  • ช่วงหลังการแพร่หลายของ generative AI และโมเดลภาษาขนาดใหญ่ (LLM) ทำให้ บทความรีวิวคุณภาพต่ำเพิ่มขึ้นอย่างรวดเร็ว
    • ส่วนใหญ่เป็นเพียงการเรียงรายการบรรณานุกรม และ ขาดการอภิปรายวิจัยใหม่
  • ในสถานการณ์เช่นนี้ ภาระการตรวจของผู้ดูแลหมวดเพิ่มสูงเกินไป และเริ่มกระทบต่อ เป้าหมายหลักของ arXiv (การแบ่งปันบทความวิจัย)

เป้าหมายของการเปลี่ยนแปลง

  • สนับสนุนให้ค้นพบบน arXiv ได้ง่ายเฉพาะ บทความรีวิวและบทความแสดงจุดยืนที่มีคุณค่าและเขียนโดยผู้เชี่ยวชาญ
  • ลดภาระงานของผู้ดูแลหมวด และ มุ่งเน้นกับการพิจารณาประเภทเนื้อหาอย่างเป็นทางการ
  • รักษาเป้าหมายหลักของ arXiv ในการ ส่งเสริมการค้นพบทางวิทยาศาสตร์อย่างรวดเร็วและเสรี

ความแตกต่างระหว่างอดีตกับปัจจุบัน

  • ในอดีตบทความรีวิวมักเขียนขึ้นตามคำขอของ นักวิจัยที่มีชื่อเสียงจำนวนไม่มาก หรือ องค์กรทางการ (เช่น Annual Reviews, IEEE, Computing Surveys) จึงมีคุณภาพสูง
  • บทความแสดงจุดยืนส่วนใหญ่ก็จัดทำโดย การประชุมวิชาการหรือหน่วยงานวิจัยภาครัฐ (เช่น Computing Research Association, National Academies)
  • ปัจจุบันมี บทความรีวิวถูกส่งเข้ามาหลายร้อยฉบับต่อเดือน และไปถึงระดับที่ ควบคุมคุณภาพได้ยาก

การใช้หน่วยงานประเมินภายนอก

  • arXiv ไม่มีบุคลากรและทรัพยากรเพียงพอที่จะทำการตรวจสอบคุณภาพด้วยตนเอง
  • จึงเลือกยอมรับการตรวจสอบจาก หน่วยงานประเมินภายนอกที่น่าเชื่อถือ (การประชุมวิชาการ·วารสาร) แทน
    • หน่วยงานเหล่านี้ทำการทบทวนเชิงลึกในประเด็น ความเป็นส่วนตัว จริยธรรม ความปลอดภัย และความมั่นคง ที่เกี่ยวข้องกับ AI
  • ด้วยวิธีนี้ arXiv จึงสามารถ เผยแพร่เฉพาะบทความที่มีการรับประกันคุณภาพแล้ว

การส่งใหม่และข้อยกเว้น

  • บทความที่ถูกปฏิเสธเพราะยังไม่ผ่าน peer review ครบถ้วน สามารถส่งใหม่ได้ผ่านกระบวนการ อุทธรณ์ (appeal) หากต่อมาผ่านการประเมินครบแล้ว
    • อย่างไรก็ตาม จะไม่สามารถส่งใหม่ได้หากไม่มีการอุทธรณ์ที่ได้รับอนุมัติ
  • บทความวิจัย ที่ว่าด้วย ผลกระทบทางสังคมของวิทยาศาสตร์และเทคโนโลยี (เช่น cs.CY, physics.soc-ph) ไม่อยู่ภายใต้การเปลี่ยนแปลงครั้งนี้

ความเป็นไปได้ที่จะขยายไปยังหมวดอื่น

  • แต่ละหมวดของ arXiv ดำเนินการอย่างอิสระโดย ผู้ดูแลหมวดที่เป็นผู้เชี่ยวชาญ
  • แม้ทุกหมวดจะใช้นโยบายเดียวกัน แต่ บทความรีวิวโดยพื้นฐานแล้วยังเป็นประเภทเนื้อหาที่ไม่เป็นทางการ
  • หากในสาขาอื่นเกิดการเพิ่มขึ้นอย่างรวดเร็วของบทความที่อาศัย LLM เช่นกัน ก็อาจมีการนำ มาตรการเข้มงวดด้านการพิจารณาในลักษณะคล้ายกัน มาใช้
  • หากมีการเปลี่ยนแปลงดังกล่าว จะมี การประกาศอย่างเป็นทางการ

1 ความคิดเห็น

 
GN⁺ 2025-11-02
ความเห็นจาก Hacker News
  • มีการชี้ให้เห็นว่าโครงสร้างที่ให้รางวัลตาม ปริมาณ ที่ผู้คนสร้างขึ้นนั้นเป็นปัญหา
    หากให้อินเซนทีฟแก่นักวิจัยตามจำนวนบทความ พวกเขาก็จะ เล่นกับระบบ ด้วยการผลิตบทความให้ได้มากที่สุดด้วยคุณภาพขั้นต่ำ
    ระบบให้รางวัลตามยอดเข้าชมหรือตามจำนวนการแสดงโฆษณาก็ทำให้เกิดพฤติกรรมบิดเบือนแบบเดียวกัน
    สุดท้ายแล้วโลกออนไลน์ก็เป็นระบบที่ถูกออกแบบมาเพื่อ เพิ่มประสิทธิภาพให้อัลกอริทึม ไม่ใช่เพื่อมนุษย์

    • ได้ยินมาว่าโครงสร้างคล้ายกันนี้เกิดขึ้นใน อุตสาหกรรมการช่วยเหลือคนไร้บ้าน ด้วย
      ในซานฟรานซิสโก จำนวนเงินสนับสนุนที่ NGO ได้รับถูกกำหนดตาม ‘จำนวนคนไร้บ้านที่ช่วยเหลือ’ ส่งผลให้เกิดแรงจูงใจในการคงจำนวนคนไร้บ้านไว้ แทนที่จะลดจำนวนลง
    • มีจุดยืนว่าไม่ควรโทษ LLM
      ปัญหาคือ มนุษย์และระบบแรงจูงใจ ไม่ใช่ตัวเครื่องมือเอง
    • เสน่ห์ของ LLM เองอยู่ที่ ‘การสร้างผลลัพธ์ได้รวดเร็ว’
      วัฒนธรรมที่วัดผลงานด้วย ตัวชี้วัดไร้ความหมาย อย่างจำนวนบรรทัดโค้ดหรือจำนวนคอมมิตนั้นผิดเพี้ยนอยู่แล้ว
      ดูเหมือนว่าเรากำลังอาศัยอยู่ใน ‘นรกของ Goodhart’ — โลกที่การปั่นตัวชี้วัดกลายเป็นเป้าหมายไปแล้ว
      แม้จะพูดแบบติดตลก แต่ก็เป็นการเสียดสีความจริงขององค์กรที่การบริหารแบบยึดตัวชี้วัดเป็นศูนย์กลางนำไปสู่เหตุขัดข้องครั้งใหญ่ในที่สุด
    • จึงสงสัยว่าระบบให้รางวัลที่ เน้นคุณภาพ ควรมีหน้าตาอย่างไร
      ตั้งคำถามว่าโลกออนไลน์ที่ยึดมนุษย์เป็นศูนย์กลางควรเป็นแบบไหน และผู้สร้างคอนเทนต์ควรได้รับผลตอบแทนอย่างไร
    • บางคนมองว่ามีการเข้าใจปัญหานี้ผิด
      โดยเน้นว่าสิ่งสำคัญจริง ๆ ไม่ใช่จำนวนบทความ แต่คือ การได้ทุนวิจัยและคุณภาพของข้อเสนอโครงการ
  • มีความเข้าใจผิดว่า arXiv จะไม่รับ preprint (บทความวิจัยที่เผยแพร่ก่อนการพิจารณา) อีกต่อไป
    ความจริงคือมีการเปลี่ยนให้เฉพาะ ‘บทความรีวิว’ และ ‘position paper’ เท่านั้นที่ส่งได้ หลังผ่านการพิจารณาจากวารสารหรือการประชุมวิชาการแล้ว

    • อธิบายว่ามาตรการนี้จำเป็นเพราะ LLM สามารถสร้าง บทความเชิงความเห็น ได้ง่ายโดยไม่มีส่วนช่วยทางเทคนิค
    • นี่ไม่ใช่การเปลี่ยนนโยบาย เพราะเดิมทีงานประเภทนี้ก็ไม่อยู่ในขอบเขตที่ arXiv อนุญาตอยู่แล้ว
    • แม้อัปโหลดเวอร์ชันวารสารไม่ได้ แต่สามารถอัปโหลด เนื้อหาเดียวกันยกเว้นรูปแบบ ได้
    • มีความเห็นว่า arXiv กำลังค่อย ๆ กลายเป็นเหมือน บล็อกเพื่อใส่ในเรซูเม่ ดังนั้นการเปลี่ยนแปลงครั้งนี้อาจเป็นผลดีเสียด้วยซ้ำ
    • บทความวิจัย ยังสามารถส่งได้ตามปกติ
  • มีข้อเสนอให้ arXiv นำ ระบบชื่อเสียง มาใช้
    แนวคิดคือให้ผู้เขียนอัปโหลดคีย์ PGP แบบสาธารณะร่วมด้วย เพื่อสร้างเครือข่ายความน่าเชื่อถือ

    • มีการเสนอให้ใช้โครงสร้างแบบ web-of-trust ที่ทุกคนสามารถแนะนำบทความและคำนวณเครือข่ายความเชื่อถือเพื่อประเมินคุณภาพได้
      ซึ่งอาจเปิดกว้างน้อยกว่าวารสารแบบเดิม แต่ก็เป็นระเบียบมากกว่าการเปิดเสรีทั้งหมด
    • ยังมีข้อเสนอโมเดลที่ arXiv คงการให้บริการ preprint ฟรีไว้ แต่ให้บริการ รีวิวโดยผู้เชี่ยวชาญ แบบมีค่าใช้จ่าย
    • มีการเล่าว่าอาจารย์คนหนึ่งเสนอสุดโต่งว่า “นักวิจัยนอก Ivy League ควรถูกกันออกไป” — เป็นการประชดชี้ให้เห็นความไม่เป็นธรรมของระบบชื่อเสียง
  • มีการชี้ปัญหา การควบคุมคุณภาพ ของ arXiv
    แค่ในเดือนตุลาคมก็มีการส่งบทความ 26,000 ชิ้น(ลิงก์สถิติ) และมีบทความที่ไม่ผ่านการตรวจสอบจำนวนมาก
    มีข้อเสนอว่าการเก็บค่าส่งเพียงเล็กน้อยอาจช่วยลดสแปมได้

    • อย่างไรก็ตาม ก็มีความเห็นว่าควรลงโทษผู้ใช้ LLM โดยตรง แทนที่จะทำกับผู้ใช้ทั้งหมด
    • อีกการวิเคราะห์หนึ่งมองว่าไม่ใช่เรื่องเงิน แต่เป็นเพราะบทความสามารถนำไปสู่ผลประโยชน์จริง เช่น งาน การเข้าเรียน หรือวีซ่า
    • หากมีค่าส่ง อย่างน้อยก็ควรนำไปใช้เป็นค่าใช้จ่ายของ การตรวจเบื้องต้นแบบง่าย ๆ และอาจแยกระดับเป็น ‘ยังไม่ตรวจ·ตรวจเบื้องต้น·ตรวจเต็มรูปแบบ·ตรวจการทำซ้ำได้จริง’ ตามระดับการตรวจ
    • ยังมีความเห็นว่าแค่เก็บ ค่าสมัคร 1 ดอลลาร์ แบบ Metafilter ก็อาจช่วยยับยั้งสแปมได้แล้ว
  • มีการชี้ว่าชื่อหัวข้อของโพสต์ใน HN นั้นไม่ถูกต้อง
    ที่ถูกต้องควรเป็น “เนื่องจากบทความรีวิวที่ AI เขียนเพิ่มขึ้นอย่างรวดเร็ว arXiv ในหมวด CS จึง กำหนดให้บทความรีวิวต้องผ่าน peer review

    • วลี “Due to LLMs” ในชื่อเดิมอาจทำให้เข้าใจผิดว่าเป็น ‘บทความที่ LLM เขียน’
    • เป้าหมายดั้งเดิมของ arXiv คือ การเผยแพร่ก่อนการพิจารณา ดังนั้นมาตรการครั้งนี้จึงไม่ได้ทำลายคุณค่านั้น
    • บางคนเสียดายว่าจะไม่ได้เห็น อารมณ์ขันประหลาด ๆ ที่บทความจาก LLM สร้างขึ้นอีกแล้ว
  • มีคนสงสัยถึงแรงจูงใจของผู้ที่อัปโหลดบทความที่ AI สร้างขึ้นทั้งหมดลง arXiv
    ขั้นตอนการส่งก็ค่อนข้างยุ่งยาก จึงสงสัยว่าทำไมยังตั้งใจทำ

    • มีคำอธิบายว่าธรรมเนียมเก่าในวงการวิชาการที่เพิ่มจำนวนบทความเพื่อ ปั่น h-index กำลังถูกเร่งให้เร็วขึ้นด้วย LLM
    • ในกรณีอย่าง วีซ่า EB-1 การเป็น ‘ผู้เขียนบทความวิชาการ’ เป็นหนึ่งในเกณฑ์ประเมิน ดังนั้นการมีบทความอย่างเป็นทางการจึงมีมูลค่าสูงมาก
    • บางคนก็คาดว่าอาจมีเป้าหมายง่าย ๆ แค่ เอาไว้โชว์ผลงาน ให้ครอบครัวหรือนายจ้างดู
  • มีการชี้ว่าบทความคุณภาพต่ำส่วนใหญ่เป็น หัวข้อเกี่ยวกับ AI
    หลายคนเมื่อเพิ่งได้ใช้ LLM ครั้งแรกก็มักทดลองแบบอ้างอิงตัวเองว่า “ให้ LLM เขียนเรื่อง LLM”
    ผลลัพธ์คือได้งานสรุปแบบ จับฉ่ายจากข้อมูลต้นทาง

    • บทความที่ AI สร้างนั้นพบได้ในสาขาอื่นนอกเหนือจาก CS ด้วย และบางชิ้นก็ อ้างอิงบทความที่ไม่มีอยู่จริง
    • มีความหวังว่า arXiv จะไม่ตีกรอบแคบลงจนเหลือแค่ ‘อนุญาตเฉพาะงานวิจัยใหม่’ เพราะตอนนี้ก็มี บทความวิจัยที่ AI สร้าง อยู่แล้ว และฝั่งนี้ตรวจจับได้ยากกว่า
    • คุณค่าของ arXiv อยู่ที่ การรับฟีดแบ็กตั้งแต่ระยะแรกและความเปิดกว้าง ดังนั้นการบอกว่า ‘อนุญาตเฉพาะบทความที่ผ่าน peer review’ ก็แทบไม่ต่างจากการบอกว่า ‘อย่าเข้ามา’
  • มีการ ประเมินเชิงบวก ต่อมาตรการครั้งนี้ของ arXiv
    ในสาขาที่เปลี่ยนเร็วอย่าง multi-agent systems หรือ agentic LLMs จำเป็นต้องมีเกณฑ์ที่ชัดเจน
    หากกำหนดให้ต้องมี metadata ที่เครื่องอ่านได้ เช่น ประเภทบทความ ลิงก์ข้อมูล·โค้ด และขอบเขตของ benchmark ก็จะช่วยเพิ่มความน่าเชื่อถือได้
    หากทำให้แท็ก ‘Survey’ หรือ ‘Position’ และ เช็กลิสต์ด้านการทำซ้ำได้ เป็นมาตรฐาน ก็จะช่วยรักษาคุณภาพได้โดยไม่ปิดกั้นไอเดียระยะเริ่มต้น

  • arXiv เผชิญปัญหา บทความคุณภาพต่ำเพื่อการโปรโมตตัวเอง มานานแล้ว
    เป็นปรากฏการณ์ที่มีอยู่ก่อนยุค LLM

    • แต่ arXiv โดยแก่นแท้แล้วเป็น แพลตฟอร์มสำหรับแชร์ผลลัพธ์อย่างรวดเร็ว ดังนั้นคุณภาพที่ลดลงอาจไม่ใช่ ‘ความเจ็บปวด’ เท่าไรนัก แต่เป็นโครงสร้างที่ผู้ใช้ต้อง คัดกรองและอ่านด้วยตนเอง