- มีการเปิดเผย PR ในโปรเจ็กต์
llama.cpp ที่ช่วย "เพิ่มความเร็ว WASM เป็น 2 เท่า"
- ปรับแต่งฟังก์ชัน dot product ของ
qX_K_q8_K และ qX_0_q8_0 โดยใช้คำสั่ง SIMD
- โค้ดส่วนใหญ่ (99%) ถูกสร้างขึ้นอัตโนมัติโดย "DeepSeek-R1"
- DeepSeek-R1 ใช้เวลา 3~5 นาทีในการประมวลผลพรอมป์ต์
ประสิทธิภาพการสร้างโค้ดของ DeepSeek-R1
- ผู้เขียน PR ใช้ DeepSeek-R1 เพื่อสร้างและปรับปรุงโค้ดสำหรับการเพิ่มประสิทธิภาพ โดยตนเองลงมือทำเพียงโค้ดทดสอบและการเขียนพรอมป์ต์
- สามารถดูได้จากพรอมป์ต์ที่ใช้
- DeepSeek-R1 แสดงกระบวนการคิดที่ยอดเยี่ยมระหว่างการปรับแต่ง
llm_groq.py
เปรียบเทียบประสิทธิภาพ DeepSeek-R1 กับ OpenAI o1
- งานเดียวกันนี้ถูกนำไปให้ OpenAI o1 ทำด้วยเช่นกัน แต่ผลลัพธ์ของ DeepSeek-R1 ดีกว่า
- กระบวนการคิดในการปรับแต่ง
model_map ในโค้ดตัวอย่าง:
- ตอนแรกประเมินว่า
model_map ยังจำเป็น
- จากนั้นพิจารณาว่าสามารถประกอบขึ้นแบบไดนามิกได้จากการตอบกลับของ API
- สุดท้ายตัดสินใจว่าการลบ
model_map ออกคือทางแก้ที่ดีที่สุด
สรุป
- DeepSeek-R1 แสดงประสิทธิภาพโดดเด่นในการสร้างและปรับแต่งโค้ดอัตโนมัติ
- การเพิ่มประสิทธิภาพด้วย SIMD บน WASM ช่วยยกระดับประสิทธิภาพของ llama.cpp อย่างมาก
- หาก PR นี้ถูกรวมเข้าโปรเจ็กต์ คาดว่าความเร็วในการทำงานของแอปพลิเคชันที่อิงกับ WebAssembly จะดีขึ้นอย่างมาก
4 ความคิดเห็น
ผมลองรัน deepseek r1 14b 30b 70b บน ollama ดูแล้ว โดยรวมการให้เหตุผลดี แต่มีความผิดพลาดเล็กๆ น้อยๆ เยอะครับ r1 ยอดเยี่ยมจริงๆ
ลองรันรุ่น distilled 8b ดูแล้ว แต่ประสิทธิภาพภาษาเกาหลีตกลงครับ
ดูเหมือนว่าจะสร้างผลลัพธ์ที่มีความหมายในการสร้างโค้ดได้
ความเห็นจาก Hacker News
DeekSeek-R1 เขียนโค้ด 99% ของ PR ใน llama.cpp ซึ่งเป็นกรณีตัวอย่างที่แสดงให้เห็นว่า AI สามารถมีส่วนสำคัญต่อการเขียนโค้ดได้
กำลังรัน DeepSeek-R1-Distill-Qwen-32B บนโน้ตบุ๊กผ่าน Ollama และต้องใช้ RAM ราว 20GB
การที่ DeekSeek-R1 เขียนโค้ด 99% ของ PR ใน llama.cpp ถือเป็นหมุดหมายที่น่าจับตา
ได้ขอให้ DeepSeek แปลงโค้ด ARM SIMD เป็นโค้ด WASM ซึ่งช่วยเรื่องการปรับแต่งประสิทธิภาพโค้ด
คำกล่าวที่ว่า LLM ไม่มีประโยชน์กับการเขียนโค้ดนั้นไม่ถูกต้อง
ใช้ o1 Pro และ Deepseek R1 ในการเขียน e2e test และ Deepseek เขียนเทสต์ได้ดีกว่า
Xuan-Son ไม่ได้ขอแค่ให้แปลง ARM NEON เป็น SIMD เท่านั้น แต่ยังขอให้พัฒนาแนวทางใหม่ด้วย
ใช้ DeepSeek R1 เขียนปลั๊กอิน llm_groq.py ใหม่ โดยทำผ่าน deepseek-r1-distill-llama-70b ที่ฟाइनจูนจากโมเดล Llama
AGI อาจมาถึงได้ภายในไม่กี่เดือน และการฝึกจะดำเนินเป็นสามขั้นตอน