12 คะแนน โดย GN⁺ 2025-01-29 | 4 ความคิดเห็น | แชร์ทาง WhatsApp
  • มีการเปิดเผย PR ในโปรเจ็กต์ llama.cpp ที่ช่วย "เพิ่มความเร็ว WASM เป็น 2 เท่า"
    • ปรับแต่งฟังก์ชัน dot product ของ qX_K_q8_K และ qX_0_q8_0 โดยใช้คำสั่ง SIMD
    • โค้ดส่วนใหญ่ (99%) ถูกสร้างขึ้นอัตโนมัติโดย "DeepSeek-R1"
    • DeepSeek-R1 ใช้เวลา 3~5 นาทีในการประมวลผลพรอมป์ต์

ประสิทธิภาพการสร้างโค้ดของ DeepSeek-R1

  • ผู้เขียน PR ใช้ DeepSeek-R1 เพื่อสร้างและปรับปรุงโค้ดสำหรับการเพิ่มประสิทธิภาพ โดยตนเองลงมือทำเพียงโค้ดทดสอบและการเขียนพรอมป์ต์
  • สามารถดูได้จากพรอมป์ต์ที่ใช้
  • DeepSeek-R1 แสดงกระบวนการคิดที่ยอดเยี่ยมระหว่างการปรับแต่ง llm_groq.py

เปรียบเทียบประสิทธิภาพ DeepSeek-R1 กับ OpenAI o1

  • งานเดียวกันนี้ถูกนำไปให้ OpenAI o1 ทำด้วยเช่นกัน แต่ผลลัพธ์ของ DeepSeek-R1 ดีกว่า
  • กระบวนการคิดในการปรับแต่ง model_map ในโค้ดตัวอย่าง:
    • ตอนแรกประเมินว่า model_map ยังจำเป็น
    • จากนั้นพิจารณาว่าสามารถประกอบขึ้นแบบไดนามิกได้จากการตอบกลับของ API
    • สุดท้ายตัดสินใจว่าการลบ model_map ออกคือทางแก้ที่ดีที่สุด

สรุป

  • DeepSeek-R1 แสดงประสิทธิภาพโดดเด่นในการสร้างและปรับแต่งโค้ดอัตโนมัติ
  • การเพิ่มประสิทธิภาพด้วย SIMD บน WASM ช่วยยกระดับประสิทธิภาพของ llama.cpp อย่างมาก
  • หาก PR นี้ถูกรวมเข้าโปรเจ็กต์ คาดว่าความเร็วในการทำงานของแอปพลิเคชันที่อิงกับ WebAssembly จะดีขึ้นอย่างมาก

4 ความคิดเห็น

 
bungker 2025-01-29

ผมลองรัน deepseek r1 14b 30b 70b บน ollama ดูแล้ว โดยรวมการให้เหตุผลดี แต่มีความผิดพลาดเล็กๆ น้อยๆ เยอะครับ r1 ยอดเยี่ยมจริงๆ

 
yangeok 2025-01-29

ลองรันรุ่น distilled 8b ดูแล้ว แต่ประสิทธิภาพภาษาเกาหลีตกลงครับ

 
yangeok 2025-01-29

ดูเหมือนว่าจะสร้างผลลัพธ์ที่มีความหมายในการสร้างโค้ดได้

 
GN⁺ 2025-01-29
ความเห็นจาก Hacker News
  • DeekSeek-R1 เขียนโค้ด 99% ของ PR ใน llama.cpp ซึ่งเป็นกรณีตัวอย่างที่แสดงให้เห็นว่า AI สามารถมีส่วนสำคัญต่อการเขียนโค้ดได้

    • Aider เขียนโค้ดใหม่ประมาณ 70% ในแต่ละรีลีส และหลังจาก Sonnet สัดส่วนโค้ดที่สร้างโดย AI ก็เพิ่มขึ้นเกิน 50%
    • ในช่วงไม่กี่เดือนที่ผ่านมา สัดส่วนโค้ดใหม่ที่ Aider เขียนอยู่ที่ 70% และสถิติสูงสุดคือ 82%
    • กำลังย้ายงานเขียนโค้ดจาก Sonnet ไปเป็น DeepSeek V3 มากขึ้นเรื่อย ๆ และกำลังทดลองใช้ R1 แต่มีปัญหาเพราะ API ล่มในช่วงหลัง
  • กำลังรัน DeepSeek-R1-Distill-Qwen-32B บนโน้ตบุ๊กผ่าน Ollama และต้องใช้ RAM ราว 20GB

    • มีประโยชน์กับการรีแฟกเตอร์โค้ด และช่วยค้นหาข้อผิดพลาดในโค้ดได้
  • การที่ DeekSeek-R1 เขียนโค้ด 99% ของ PR ใน llama.cpp ถือเป็นหมุดหมายที่น่าจับตา

  • ได้ขอให้ DeepSeek แปลงโค้ด ARM SIMD เป็นโค้ด WASM ซึ่งช่วยเรื่องการปรับแต่งประสิทธิภาพโค้ด

    • การจัดการกับคำสั่ง SIMD เป็นงานที่ยากกว่าการปรับแต่งโค้ดระดับสูงเสียอีก
  • คำกล่าวที่ว่า LLM ไม่มีประโยชน์กับการเขียนโค้ดนั้นไม่ถูกต้อง

    • คำกล่าวที่ว่า AI อาจเข้ามาแทนนักพัฒนาได้นั้นไม่ใช่การโม้เสียทั้งหมด
    • หากไม่มีความต้องการแอปพลิเคชันเพิ่มขึ้น งานก็อาจลดลงได้
  • ใช้ o1 Pro และ Deepseek R1 ในการเขียน e2e test และ Deepseek เขียนเทสต์ได้ดีกว่า

    • แต่เทสต์ไม่ผ่าน
  • Xuan-Son ไม่ได้ขอแค่ให้แปลง ARM NEON เป็น SIMD เท่านั้น แต่ยังขอให้พัฒนาแนวทางใหม่ด้วย

    • พยายามปรับแต่ง wllama เป็นโปรเจ็กต์ทำเล่นช่วงสุดสัปดาห์ และใช้ LLM จนทำงานนั้นสำเร็จ
  • ใช้ DeepSeek R1 เขียนปลั๊กอิน llm_groq.py ใหม่ โดยทำผ่าน deepseek-r1-distill-llama-70b ที่ฟाइनจูนจากโมเดล Llama

  • AGI อาจมาถึงได้ภายในไม่กี่เดือน และการฝึกจะดำเนินเป็นสามขั้นตอน

    • การฝึกหลายโมเดลเพื่อให้เกิดความหลากหลายสำหรับการอยู่รอดระยะยาวเป็นเรื่องสำคัญ