- โมเดล Sweep Next-Edit ที่มี พารามิเตอร์ 1.5B ให้ความสามารถเติมโค้ดอัตโนมัติโดยคาดการณ์ การแก้ไขโค้ดครั้งถัดไป ของผู้ใช้
- ทำงานได้ใน สภาพแวดล้อมโลคัล ด้วยความเร็วต่ำกว่า 500ms และมี ประสิทธิภาพสูงกว่าโมเดลที่ใหญ่กว่ามากกว่า 4 เท่า
- ให้มาในรูปแบบการควอนไทซ์ Q8_0 GGUF และแม้จะมีขนาดเบา ก็ยังรองรับ ความยาวคอนเท็กซ์ 8192 โทเค็น
- พัฒนาบนพื้นฐานของ Qwen2.5-Coder และเชื่อมต่อกับปลั๊กอิน JetBrains ได้
- เผยแพร่ภายใต้ Apache 2.0 license จึงเป็นโมเดลที่มีประโยชน์สำหรับนักพัฒนา AI โอเพนซอร์สในการทดลองและผสานรวม
ภาพรวมโมเดล
- Sweep Next-Edit 1.5B คือ โมเดลทำนาย next-edit สำหรับการเติมโค้ดอัตโนมัติ
- คาดการณ์การแก้ไขถัดไปและเสนอให้ก่อนที่ผู้ใช้จะลงมือแก้โค้ด
- ทำงานได้ด้วยเวลาแฝงต่ำกว่า 500ms แม้ใน สภาพแวดล้อมโน้ตบุ๊กแบบโลคัล
- ใช้ Speculative decoding เพื่อให้ตอบสนองได้รวดเร็ว
- ทำผลงานได้ ดีกว่าโมเดลที่ใหญ่กว่ามากกว่า 4 เท่า บนเบนช์มาร์ก next-edit
รายละเอียดโมเดล
- จำนวนพารามิเตอร์: 1.5B
- รูปแบบ: GGUF (การควอนไทซ์ Q8_0)
- ความยาวคอนเท็กซ์: 8192 โทเค็น
- โมเดลฐาน: Qwen2.5-Coder
- ไลเซนส์: Apache 2.0
วิธีใช้งาน
- ดาวน์โหลด
run_model.py และไฟล์โมเดล จากนั้นรัน
- เป็นโครงสร้างที่เน้น การรันแบบโลคัล จึงไม่มีผู้ให้บริการคลาวด์อินเฟอเรนซ์แยกต่างหาก
2 ความคิดเห็น
ช่วงหลังบิ๊กเทคเติบโตด้วยการเพิ่มจำนวนพารามิเตอร์กันมา แต่ทิศทางนี้กำลังจะเปลี่ยนหรือเปล่าครับ?
ส่วนตัวผมคิดมาตลอดว่าการโตด้วยการเพิ่มพารามิเตอร์ไปเรื่อย ๆ มันไม่ใช่คำตอบจริง ๆ อยู่แล้ว
เหมือนเป็นการยอมทิ้งอนาคตระยะใกล้เพื่อแลกกับการเติบโตอะไรทำนองนั้น โดยเฉพาะตอนที่ MoE มาแรงที่สุด ผมยิ่งรู้สึกแบบนั้นครับ
อย่าง Gemma 3 27b ของ Google ก็ถือว่าค่อนข้างสูงแล้ว แต่เดี๋ยวนี้ในโลก LLM กลับดูเหมือนว่าจำนวนพารามิเตอร์ระดับนั้นกลายเป็นน้อยไปแล้ว
ความก้าวหน้าทางเทคโนโลยีก็สำคัญ แต่ผมก็คิดว่าน่าจะต้องมีอะไรที่คำนึงถึงขั้นตอนการเสิร์ฟใช้งานจริงด้วย ซึ่งครั้งนี้ก็ดูเป็นความพยายามที่ดีนะครับ
(เหตุผลที่ผมค่อนข้างกังขากับการเพิ่มพารามิเตอร์ก็คือ ถึงจะรู้ว่าประสิทธิภาพดีขึ้น แต่ต้นทุนในการเสิร์ฟมันสูงขึ้นตามไปด้วยครับ)
ความคิดเห็นจาก Hacker News
ฉันลองใช้โมเดลนี้เองแล้ว และรู้สึกประทับใจกับประสิทธิภาพและคุณภาพมาก
ขอบคุณที่เปิดเป็นโอเพนซอร์ส
ฉันเป็นคนทำ ปลั๊กอิน edit completion สำหรับ Neovim และรวมเข้ากับโมเดล Sweep Edit ได้สำเร็จแล้ว
คนที่สนใจดูได้ที่ cursortab.nvim
ก่อนหน้านี้ฉันเคยใช้ Qwen 2.5 Coder สำหรับ autocomplete ใน Continue.dev แต่ทั้งใน JetBrains IDE และ VS Code มันแย่มาก
ดีใจมากที่มีคนมาแชร์ความพยายามแบบนี้ ปลั๊กอิน IDE ส่วนใหญ่ (Cline, RooCode, KiloCode ฯลฯ) รองรับการตั้งค่าโมเดล autocompleteได้ไม่ดีนัก
เหตุผลหลักที่ยังจ่าย Copilot อยู่ก็คือ autocomplete นี่แหละ แต่ตอนนี้ดูเหมือนจะมีทางเลือกแล้ว เลยดีใจมาก
ทุกครั้งที่ใช้ปลั๊กอินแบบนี้ ฉันยิ่งรู้สึกว่าการเขียนโค้ดโดยไม่มี AI autocomplete นั้นไม่มีประสิทธิภาพแค่ไหน
ยิ่งมีโค้ด boilerplate เยอะ มันยิ่งมีประโยชน์กว่า Claude Code มาก
ฉันใช้ JetBrains มานานจนย้ายไป VSCode ได้ยาก แต่ฟีเจอร์ AI ของ JetBrains ตามหลังมาก
ตอนนี้ในที่สุดก็มีเครื่องมือ autocomplete ที่ดีพอแล้ว เลยคิดว่าจะย้ายค่าสมาชิก Copilot มาใช้อันนี้แทน
แถมยังชอบที่มีทั้ง open weights และ โหมดความเป็นส่วนตัวด้วย
นักพัฒนาที่เขียนโค้ดใหม่เป็นหลักจะรู้สึกถึงการเพิ่มผลิตภาพจาก autocomplete มาก แต่คนที่ทำงานสายบำรุงรักษาเป็นหลักจะได้ประโยชน์จากเครื่องมืออย่าง Claude Code มากกว่า
แต่ปกติฉันจะปิด LLM ไว้ แล้วค่อยเปิดเมื่อจำเป็น
ฉันคิดว่าศักยภาพของโมเดลขนาดเล็กที่ทำมาเฉพาะทางยังถูกประเมินต่ำเกินไป
ตอนนี้ฉันกำลังเขียนหนังสือชื่อ ‘Winning Big With Small AI’ อยู่
ฉันคิดว่าส่วนใหญ่รีแฟกเตอร์เป็น utility หรือไลบรารีได้
ฉันเขียนโค้ดพวก research pipeline เป็นหลัก เลยอาจรู้สึกต่างออกไป
อ้างอิงไว้ด้วยว่าเครื่องมืออย่าง yasnippet, ultisnips, VSCode snippets ก็ทำ autocomplete พื้นฐานได้เหมือนกัน
รออะไรแบบนี้มานานมากแล้ว
ฉันไม่พอใจที่ Cursor เรียกเก็บเดือนละ 20 ดอลลาร์ ทั้งที่ใช้แค่ autocomplete
เคยคิดจะทำเองเหมือนกัน แต่ไม่แน่ใจว่าโมเดลที่เล็กพอจะรันบนเครื่องตัวเองจะใช้งานได้ดีพอไหม
สุดท้ายเลยรีบทำส่วนขยาย VSCode ขึ้นมา และตัวโมเดลก็ค่อนข้างดีทีเดียว
โมเดลโลคัลเมื่อก่อนทำ inline completion ได้แย่มาก แต่รอบนี้ดีขึ้นเยอะ
หวังว่าจะมีการแข่งขันกันมากขึ้น
เขาบอกว่าคุณภาพดีขึ้นด้วยฟีเจอร์อย่าง token healing — บทความที่เกี่ยวข้อง
ได้ยินมาว่าโมเดล 1.5B เล็กพอจะรันบนเครื่องตัวเองได้ เลยสงสัยว่าในปลั๊กอิน Sweep AI สำหรับ JetBrains มันรันแบบโลคัลจริงไหม
อยากรู้ว่าพอติดตั้งแล้วมันจะดาวน์โหลดโมเดลอัตโนมัติและไม่มีการสื่อสารออกภายนอกหรือเปล่า
ฉันประหลาดใจมากที่ ระดับการทำ AI ของ JetBrains ต่ำขนาดนี้
ผ่านมาหลายปีแล้วยังได้แค่นี้เอง จนดูเหมือนบริษัทใหม่ๆ ยังทำได้ดีกว่า
บทความเชิงเทคนิคก็น่าสนใจมาก
จากที่เห็นทั้ง GLM-4.7-Flash และประกาศครั้งนี้ เรื่องการฝ่าขีดจำกัดของโมเดลขนาดเล็กน่าสนใจมากจริงๆ
ตอนนี้โมเดลที่รันได้บนฮาร์ดแวร์ที่ฉันมีเริ่มดีขึ้นเรื่อยๆ เลยน่าตื่นเต้นมาก
เจ๋งมากจริงๆ
โดยเฉพาะฉันอยากรู้ว่าพวกเขาสร้างข้อมูลฝึก next edit จากใน repository กันอย่างไร
อยากฟังอินไซต์เกี่ยวกับเรื่องนี้
เยี่ยมมาก บล็อกโพสต์ที่เกี่ยวข้องก็น่าสนใจมากเช่นกัน
หวังว่าจะมีปลั๊กอินสำหรับ Neovim ออกมาเร็วๆ นี้
บทความที่เกี่ยวข้อง
มันทำงานได้ดีกับ Qwen3 Coder และถ้ารองรับแค่ infill ก็น่าจะไม่มีปัญหา
วันนี้ฉันว่าจะลองทดสอบดู
ฉันยังไม่ค่อยเข้าใจความต่างระหว่างโมเดล next-edit กับโมเดล FIM
ถ้ามีใครอธิบายได้ว่าแต่ละแบบเหมาะใช้ตอนไหนก็คงดี
ถ้าเป็นไปได้ฉันก็อยากทำปลั๊กอินสำหรับ Sublime เพื่อจะได้ลองใช้เอง
โครงสร้างใช้ความสามารถ autocomplete พื้นฐาน
ดูได้ที่ AItoComplete
autocomplete แบบเดิมจะเติมต่อจากท้ายอย่างเดียว แต่ FIM คือการเติมระหว่างบล็อกโค้ด
หรือก็คือโมเดลที่ดูทั้งบริบทก่อนและหลังจุดแทรก เพื่อหาการเติมตรงกลางที่เป็นธรรมชาติที่สุด