19 คะแนน โดย GN⁺ 2026-01-23 | 2 ความคิดเห็น | แชร์ทาง WhatsApp
  • โมเดล Sweep Next-Edit ที่มี พารามิเตอร์ 1.5B ให้ความสามารถเติมโค้ดอัตโนมัติโดยคาดการณ์ การแก้ไขโค้ดครั้งถัดไป ของผู้ใช้
  • ทำงานได้ใน สภาพแวดล้อมโลคัล ด้วยความเร็วต่ำกว่า 500ms และมี ประสิทธิภาพสูงกว่าโมเดลที่ใหญ่กว่ามากกว่า 4 เท่า
  • ให้มาในรูปแบบการควอนไทซ์ Q8_0 GGUF และแม้จะมีขนาดเบา ก็ยังรองรับ ความยาวคอนเท็กซ์ 8192 โทเค็น
  • พัฒนาบนพื้นฐานของ Qwen2.5-Coder และเชื่อมต่อกับปลั๊กอิน JetBrains ได้
  • เผยแพร่ภายใต้ Apache 2.0 license จึงเป็นโมเดลที่มีประโยชน์สำหรับนักพัฒนา AI โอเพนซอร์สในการทดลองและผสานรวม

ภาพรวมโมเดล

  • Sweep Next-Edit 1.5B คือ โมเดลทำนาย next-edit สำหรับการเติมโค้ดอัตโนมัติ
    • คาดการณ์การแก้ไขถัดไปและเสนอให้ก่อนที่ผู้ใช้จะลงมือแก้โค้ด
    • ทำงานได้ด้วยเวลาแฝงต่ำกว่า 500ms แม้ใน สภาพแวดล้อมโน้ตบุ๊กแบบโลคัล
  • ใช้ Speculative decoding เพื่อให้ตอบสนองได้รวดเร็ว
  • ทำผลงานได้ ดีกว่าโมเดลที่ใหญ่กว่ามากกว่า 4 เท่า บนเบนช์มาร์ก next-edit

รายละเอียดโมเดล

  • จำนวนพารามิเตอร์: 1.5B
  • รูปแบบ: GGUF (การควอนไทซ์ Q8_0)
  • ความยาวคอนเท็กซ์: 8192 โทเค็น
  • โมเดลฐาน: Qwen2.5-Coder
  • ไลเซนส์: Apache 2.0

วิธีใช้งาน

  • ดาวน์โหลด run_model.py และไฟล์โมเดล จากนั้นรัน
    • คำสั่งติดตั้ง:
      uv pip install llama-cpp-python huggingface_hub  
      python run_model.py  
      
  • เป็นโครงสร้างที่เน้น การรันแบบโลคัล จึงไม่มีผู้ให้บริการคลาวด์อินเฟอเรนซ์แยกต่างหาก

2 ความคิดเห็น

 
minsuchae 2026-01-23

ช่วงหลังบิ๊กเทคเติบโตด้วยการเพิ่มจำนวนพารามิเตอร์กันมา แต่ทิศทางนี้กำลังจะเปลี่ยนหรือเปล่าครับ?
ส่วนตัวผมคิดมาตลอดว่าการโตด้วยการเพิ่มพารามิเตอร์ไปเรื่อย ๆ มันไม่ใช่คำตอบจริง ๆ อยู่แล้ว
เหมือนเป็นการยอมทิ้งอนาคตระยะใกล้เพื่อแลกกับการเติบโตอะไรทำนองนั้น โดยเฉพาะตอนที่ MoE มาแรงที่สุด ผมยิ่งรู้สึกแบบนั้นครับ
อย่าง Gemma 3 27b ของ Google ก็ถือว่าค่อนข้างสูงแล้ว แต่เดี๋ยวนี้ในโลก LLM กลับดูเหมือนว่าจำนวนพารามิเตอร์ระดับนั้นกลายเป็นน้อยไปแล้ว
ความก้าวหน้าทางเทคโนโลยีก็สำคัญ แต่ผมก็คิดว่าน่าจะต้องมีอะไรที่คำนึงถึงขั้นตอนการเสิร์ฟใช้งานจริงด้วย ซึ่งครั้งนี้ก็ดูเป็นความพยายามที่ดีนะครับ
(เหตุผลที่ผมค่อนข้างกังขากับการเพิ่มพารามิเตอร์ก็คือ ถึงจะรู้ว่าประสิทธิภาพดีขึ้น แต่ต้นทุนในการเสิร์ฟมันสูงขึ้นตามไปด้วยครับ)

 
GN⁺ 2026-01-23
ความคิดเห็นจาก Hacker News
  • ฉันลองใช้โมเดลนี้เองแล้ว และรู้สึกประทับใจกับประสิทธิภาพและคุณภาพมาก
    ขอบคุณที่เปิดเป็นโอเพนซอร์ส
    ฉันเป็นคนทำ ปลั๊กอิน edit completion สำหรับ Neovim และรวมเข้ากับโมเดล Sweep Edit ได้สำเร็จแล้ว
    คนที่สนใจดูได้ที่ cursortab.nvim

    • สงสัยว่ามีพอร์ตสำหรับ Emacs หรือเวอร์ชันที่รวมกับ gptel ด้วยไหม
    • ดูน่าสนใจมาก เดี๋ยวจะลองใช้ปลั๊กอิน nvim ทันที
    • เจ๋งมาก ฉันก็กำลังคิดจะลองทำเองเหมือนกัน
  • ก่อนหน้านี้ฉันเคยใช้ Qwen 2.5 Coder สำหรับ autocomplete ใน Continue.dev แต่ทั้งใน JetBrains IDE และ VS Code มันแย่มาก
    ดีใจมากที่มีคนมาแชร์ความพยายามแบบนี้ ปลั๊กอิน IDE ส่วนใหญ่ (Cline, RooCode, KiloCode ฯลฯ) รองรับการตั้งค่าโมเดล autocompleteได้ไม่ดีนัก
    เหตุผลหลักที่ยังจ่าย Copilot อยู่ก็คือ autocomplete นี่แหละ แต่ตอนนี้ดูเหมือนจะมีทางเลือกแล้ว เลยดีใจมาก

    • ฉันก็เคยลองส่วนขยาย VS Code ของ llama.cpp เหมือนกัน แต่ UX ของการตั้งค่าแย่มากจริงๆ
  • ทุกครั้งที่ใช้ปลั๊กอินแบบนี้ ฉันยิ่งรู้สึกว่าการเขียนโค้ดโดยไม่มี AI autocomplete นั้นไม่มีประสิทธิภาพแค่ไหน
    ยิ่งมีโค้ด boilerplate เยอะ มันยิ่งมีประโยชน์กว่า Claude Code มาก
    ฉันใช้ JetBrains มานานจนย้ายไป VSCode ได้ยาก แต่ฟีเจอร์ AI ของ JetBrains ตามหลังมาก
    ตอนนี้ในที่สุดก็มีเครื่องมือ autocomplete ที่ดีพอแล้ว เลยคิดว่าจะย้ายค่าสมาชิก Copilot มาใช้อันนี้แทน
    แถมยังชอบที่มีทั้ง open weights และ โหมดความเป็นส่วนตัวด้วย

    • ฉันย้ำเรื่องประโยชน์ของ autocomplete มานานแล้ว แต่ตอนนี้เพิ่งเข้าใจว่ามีวัฒนธรรมการพัฒนาซอฟต์แวร์อยู่สองแบบ
      นักพัฒนาที่เขียนโค้ดใหม่เป็นหลักจะรู้สึกถึงการเพิ่มผลิตภาพจาก autocomplete มาก แต่คนที่ทำงานสายบำรุงรักษาเป็นหลักจะได้ประโยชน์จากเครื่องมืออย่าง Claude Code มากกว่า
    • ฉันก็เห็นด้วย ตอนนี้ใน Emacs ฉันใช้ทั้งโมเดลแบบโลคัลและ gemini 3 flash ร่วมกัน
      แต่ปกติฉันจะปิด LLM ไว้ แล้วค่อยเปิดเมื่อจำเป็น
      ฉันคิดว่าศักยภาพของโมเดลขนาดเล็กที่ทำมาเฉพาะทางยังถูกประเมินต่ำเกินไป
      ตอนนี้ฉันกำลังเขียนหนังสือชื่อ ‘Winning Big With Small AI’ อยู่
    • อาจจะนอกประเด็นนิดหน่อย แต่ฉันสงสัยว่าทำไมถึงมีโค้ด boilerplateเยอะขนาดนั้น
      ฉันคิดว่าส่วนใหญ่รีแฟกเตอร์เป็น utility หรือไลบรารีได้
      ฉันเขียนโค้ดพวก research pipeline เป็นหลัก เลยอาจรู้สึกต่างออกไป
      อ้างอิงไว้ด้วยว่าเครื่องมืออย่าง yasnippet, ultisnips, VSCode snippets ก็ทำ autocomplete พื้นฐานได้เหมือนกัน
    • Junie อาจไม่ค่อยดี แต่ถ้าปัญหาคือ autocomplete ใน IntelliJ ก็มีฟีเจอร์ autocomplete แบบ local/cloud อยู่เหมือนกัน
    • มันชวนให้รู้สึกขมขื่นนิดๆ ที่สุดท้ายทางแก้ของปัญหา boilerplate กลับลงเอยที่การสร้างอัตโนมัติ
  • รออะไรแบบนี้มานานมากแล้ว
    ฉันไม่พอใจที่ Cursor เรียกเก็บเดือนละ 20 ดอลลาร์ ทั้งที่ใช้แค่ autocomplete
    เคยคิดจะทำเองเหมือนกัน แต่ไม่แน่ใจว่าโมเดลที่เล็กพอจะรันบนเครื่องตัวเองจะใช้งานได้ดีพอไหม
    สุดท้ายเลยรีบทำส่วนขยาย VSCode ขึ้นมา และตัวโมเดลก็ค่อนข้างดีทีเดียว
    โมเดลโลคัลเมื่อก่อนทำ inline completion ได้แย่มาก แต่รอบนี้ดีขึ้นเยอะ
    หวังว่าจะมีการแข่งขันกันมากขึ้น

  • ได้ยินมาว่าโมเดล 1.5B เล็กพอจะรันบนเครื่องตัวเองได้ เลยสงสัยว่าในปลั๊กอิน Sweep AI สำหรับ JetBrains มันรันแบบโลคัลจริงไหม
    อยากรู้ว่าพอติดตั้งแล้วมันจะดาวน์โหลดโมเดลอัตโนมัติและไม่มีการสื่อสารออกภายนอกหรือเปล่า

    • ตอนนี้ยังไม่ใช่ ตอนนี้ปลั๊กอิน JetBrains ใช้โมเดลขนาดใหญ่แบบโฮสต์ไว้
    • ดูเหมือนว่าจะยังไม่มีวิธีตั้งค่า local endpoint ในปลั๊กอิน JetBrains
  • ฉันประหลาดใจมากที่ ระดับการทำ AI ของ JetBrains ต่ำขนาดนี้
    ผ่านมาหลายปีแล้วยังได้แค่นี้เอง จนดูเหมือนบริษัทใหม่ๆ ยังทำได้ดีกว่า
    บทความเชิงเทคนิคก็น่าสนใจมาก

    • ขอบคุณนะ ถ้ามีฟีดแบ็กหรือคำถามก็ยินดีเสมอ
  • จากที่เห็นทั้ง GLM-4.7-Flash และประกาศครั้งนี้ เรื่องการฝ่าขีดจำกัดของโมเดลขนาดเล็กน่าสนใจมากจริงๆ
    ตอนนี้โมเดลที่รันได้บนฮาร์ดแวร์ที่ฉันมีเริ่มดีขึ้นเรื่อยๆ เลยน่าตื่นเต้นมาก

  • เจ๋งมากจริงๆ
    โดยเฉพาะฉันอยากรู้ว่าพวกเขาสร้างข้อมูลฝึก next edit จากใน repository กันอย่างไร
    อยากฟังอินไซต์เกี่ยวกับเรื่องนี้

  • เยี่ยมมาก บล็อกโพสต์ที่เกี่ยวข้องก็น่าสนใจมากเช่นกัน
    หวังว่าจะมีปลั๊กอินสำหรับ Neovim ออกมาเร็วๆ นี้
    บทความที่เกี่ยวข้อง

    • ได้ยินมาว่ามีคนทำปลั๊กอิน Neovim ที่ต่อกับโมเดลนี้แล้ว
    • มี llama.vim ด้วย
      มันทำงานได้ดีกับ Qwen3 Coder และถ้ารองรับแค่ infill ก็น่าจะไม่มีปัญหา
      วันนี้ฉันว่าจะลองทดสอบดู
    • ผู้เขียนปลั๊กอินก็มาแสดงความเห็นในเธรดนี้แล้ว
  • ฉันยังไม่ค่อยเข้าใจความต่างระหว่างโมเดล next-edit กับโมเดล FIM
    ถ้ามีใครอธิบายได้ว่าแต่ละแบบเหมาะใช้ตอนไหนก็คงดี
    ถ้าเป็นไปได้ฉันก็อยากทำปลั๊กอินสำหรับ Sublime เพื่อจะได้ลองใช้เอง

    • ฉันก็สงสัยเหมือนกัน เลยขอให้ Claude ช่วยทำปลั๊กอินให้
      โครงสร้างใช้ความสามารถ autocomplete พื้นฐาน
      ดูได้ที่ AItoComplete
    • ฉันเดาว่า FIM น่าจะย่อมาจาก Fill-In-the-Middle
      autocomplete แบบเดิมจะเติมต่อจากท้ายอย่างเดียว แต่ FIM คือการเติมระหว่างบล็อกโค้ด
      หรือก็คือโมเดลที่ดูทั้งบริบทก่อนและหลังจุดแทรก เพื่อหาการเติมตรงกลางที่เป็นธรรมชาติที่สุด