1 คะแนน โดย GN⁺ 1 시간 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • DeepClaude จะคงลูปเครื่องมือ การแก้ไขไฟล์ bash และเวิร์กโฟลว์ git ของ Claude Code CLI ไว้เหมือนเดิม โดยเปลี่ยนเฉพาะปลายทางของการเรียก API ไปเป็นแบ็กเอนด์ที่เข้ากันได้กับ DeepSeek V4 Pro, OpenRouter, Fireworks AI และ Anthropic
  • Claude Code มีค่าบริการรายเดือน $200 และมีข้อจำกัดด้านปริมาณการใช้งาน ขณะที่ DeepSeek V4 Pro ชูจุดเด่นด้วยคะแนน LiveCodeBench 96.4% และค่าราคาโทเคนขาออก $0.87/M
  • รองรับการอ่าน·เขียน·แก้ไขไฟล์, การรัน Bash/PowerShell, การค้นหาแบบ Glob/Grep, ลูปเครื่องมืออัตโนมัติหลายขั้นตอน, การสร้างซับเอเจนต์, งาน git, /init และ thinking mode ที่เปิดใช้งานเป็นค่าเริ่มต้น
  • แบ็กเอนด์เริ่มต้นคือ DeepSeek โดย OpenRouter มีเซิร์ฟเวอร์ในสหรัฐและมี latency ต่ำ, Fireworks AI เด่นด้านการอนุมานที่รวดเร็ว, ส่วน Anthropic เป็นตัวเลือกสำหรับใช้ Claude Opus กับโจทย์ที่ยาก
  • ราคาของแต่ละแบ็กเอนด์ระบุว่า DeepSeek และ OpenRouter คิดค่าขาเข้า $0.44/M · ขาออก $0.87/M, Fireworks AI คิดค่าขาเข้า $1.74/M · ขาออก $3.48/M, และ Anthropic คิดค่าขาเข้า $3.00/M · ขาออก $15.00/M
  • DeepClaude จะตั้งค่า ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL, CLAUDE_CODE_SUBAGENT_MODEL เป็นรายเซสชัน และกู้คืนค่าดั้งเดิมเมื่อปิดการทำงาน
  • ระบบ auto context caching ของ DeepSeek จะ cache system prompt และบริบทของไฟล์หลังจากคำขอแรกในราคา $0.004/M ช่วยลดต้นทุนของลูปเอเจนต์ในรอบการทำงานซ้ำ
  • การเปรียบเทียบค่าใช้งานระบุว่าเมื่อเทียบกับ Anthropic Max $200/เดือน แล้ว DeepClaude จะอยู่ที่ประมาณ $20/เดือน สำหรับการใช้งานเบา, ประมาณ $50/เดือน สำหรับการใช้งานหนัก และประมาณ $80/เดือน เมื่อรวมลูปอัตโนมัติ
  • ข้อจำกัดก็มีอย่างชัดเจนเช่นกัน: Anthropic endpoint ของ DeepSeek ไม่รองรับอินพุตภาพ, Claude Code จะส่งเครื่องมือแบบลำดับต่อเนื่องเป็นค่าเริ่มต้น, MCP server tools ไม่รองรับผ่าน compatibility layer และ cache_control ของ Anthropic จะถูกมองข้าม
  • รองรับ live switching สำหรับเปลี่ยนแบ็กเอนด์ระหว่างเซสชันได้โดยไม่ต้องรีสตาร์ต โดยพร็อกซี localhost:3200 จะส่ง /v1/messages ไปยังแบ็กเอนด์ที่กำลังใช้งาน และมี control endpoint คือ /_proxy/mode, /_proxy/status, /_proxy/cost
  • ภายใน Claude Code สามารถใช้ slash command อย่าง /deepseek, /anthropic, /openrouter หรือเปลี่ยนแบ็กเอนด์ด้วย deepclaude --switch ds ได้ และพร็อกซียังจะคำนวณการใช้โทเคนรวมถึงจำนวนเงินที่ประหยัดได้เมื่อเทียบกับ Anthropic
  • สามารถรันผ่านโปรไฟล์เทอร์มินัลของ VS Code/Cursor ได้ และ --remote จะเปิดเซสชัน Claude Code ในเบราว์เซอร์ แต่ใช้ WebSocket bridge ของ Anthropic ขณะที่การเรียก Model API จะถูกส่งผ่านพร็อกซีภายในเครื่องไปยัง DeepSeek หรือผู้ให้บริการอื่น
  • สำหรับการควบคุมระยะไกล ต้องมี claude auth login, การสมัครสมาชิก claude.ai และ Node.js 18+ สำหรับพร็อกซี โดยโปรเจกต์นี้ใช้ไลเซนส์ MIT

1 ความคิดเห็น

 
GN⁺ 1 시간 전
ความคิดเห็นจาก Hacker News
  • การรัน Claude Code ผ่าน DeepSeek API ทำได้แทบจะด้วยเชลล์แรปเปอร์ที่ตั้งค่า environment variable ไม่กี่ตัว
    แค่ตั้ง ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_MODEL แล้วรัน claude $@

    • กับโปรเจ็กต์ที่ไม่ใช่ความลับ ผมใช้แบบนี้กับ DeepSeek v4 มาประมาณหนึ่งสัปดาห์แล้ว และเพราะไม่ได้ให้มันทำงานโหดมาก จึงแทบไม่รู้สึกถึงความต่าง
      เพียงแต่ดูเหมือน DeepSeek API จะไม่มีตัวเลือกไม่ให้นำไปใช้ฝึก และถ้ามีผู้ให้บริการรายอื่นเอาไปให้ใช้ก็น่าจะดีกว่านี้ ตอนนี้ OpenRouter ดูเหมือนแค่พร็อกซีไปที่ DeepSeek
    • โปรเจ็กต์ที่แซว Claude ดูเหมือนจะขึ้น อันดับ 1 บน Hacker News ได้ แม้จะมีโค้ดแค่สี่บรรทัดก็ตาม
    • ส่วนที่น่าสนใจกว่าใน deepclaude คือ local proxy ที่สลับโมเดลได้กลางเซสชัน และฟีเจอร์ติดตามต้นทุนแบบรวม
      แต่ README ที่เหมือน LLM เขียนกลับทำให้ฟีเจอร์พวกนี้ถูกกลบไปมาก และดูจากประวัติแล้วฟีเจอร์เหล่านี้ถูกเพิ่มทีหลัง แต่โครงสร้าง README ไม่ได้ถูกจัดใหม่
      ผู้เขียนยังคอมมิตแผนโฆษณาบนโซเชียลมีเดียที่ดูเหมือนตั้งใจให้ได้ผลไว้ด้วย: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • เพราะแบบนี้ผมเลยสร้าง https://getaivo.dev ขึ้นมา และสามารถใช้โมเดลได้ตรงจากเอเจนต์เขียนโค้ด
      แค่รันแบบ aivo claude -m deepseek-v4-pro
    • โดยแก่นแล้ว วิธีนี้ทำให้สามารถใช้ Claude Code กับโมเดลอะไรก็ได้ รวมถึงโมเดลโลคัลด้วย
  • ผมไม่ค่อยเข้าใจว่ามันมีความหมายอะไรนัก DeepSeek ก็มีคำแนะนำการใช้ API กับ CLI หลายตัวรวมถึง Claude Code อยู่แล้ว
    https://api-docs.deepseek.com/quick_start/agent_integrations...

    • README กลบฟีเจอร์ที่จริง ๆ ไม่ได้เล็กน้อยเลยไว้หมด: มันรัน พร็อกซีสลับโมเดล กลางเซสชันได้ และติดตามค่าใช้จ่ายแบบรวมเมื่อใช้ทั้ง Anthropic กับโมเดลอื่นร่วมกัน
      ดูเหมือน LLM ที่เขียน README จะไม่ได้อัปเดตคำอธิบายโปรเจ็กต์ทั่วไปให้เน้นฟีเจอร์พวกนี้
      แผนโฆษณาของผู้เขียนก็ถูกคอมมิตไว้ด้วย: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • อาจจะไม่ได้มีความหมายอะไรนัก รู้สึกเหมือนเป็นการเอาความคิดแรกที่นึกได้มาทำรวดเดียวทั้งที่ยังไม่เข้าใจหรือค้นคว้าให้ดี แล้วก็เอาไปลงหน้าแรก HN กับทุกโซเชียล
    • เหมือนเป็นเครื่องมือที่ vibe coder ทำไว้ให้ vibe coder ใช้
    • เท่าที่เห็น รูปแบบ tool call ไม่ได้เหมือนกันเป๊ะ ดังนั้นถ้าจะเอา AI ตัวไหนก็ได้มาต่อกับ Claude Code ก็น่าจะต้องมี การแปลงฟอร์แมต
    • อยากรู้ว่ามันใช้งานได้ดีแค่ไหน ผมเคยใช้ DeepSeek กับ Hermes และ Opencode แล้ว แม้จะใส่คำชี้นำหนัก ๆ ใน system prompt ความสามารถในการใช้เครื่องมือพื้นฐานอย่างเครื่องมือความจำแบบโฮโลกราฟิกของ Hermes ก็ยังแย่มาก
  • ถ้ากำลังหา ทางเลือกของ Claude Code ผมแนะนำให้ดู pi.dev หรือ opencode เป็น execution framework ก่อน
    ส่วนโมเดล ตอนนี้ OpenCode Go ดูคุ้มค่าที่สุด และต่อกับ OpenRouter หรือ DeepSeek โดยตรงก็ได้ ส่วนตัวผมคิดว่าไปทาง Kimi แล้วซื้อสมาชิก kimi.com จะดีกว่า

    • ขอเสนอ execution framework ของผมเองเป็นตัวเลือกด้วย: https://codeberg.org/mlow/lmcli
    • pi.dev กับ opencode ก็ดี แต่ ปลั๊กอินและสกิล ที่ผมอยากใช้มีอยู่ฝั่ง Claude Code มากที่สุด
    • เห็นด้วย OpenCode เป็นฐานที่แข็งแรง และถ้าปรับอีกนิดก็จะกลายเป็น execution framework ที่มีประสิทธิภาพมาก
      ในโปรเจ็กต์ส่วนตัว mouse.dev ผมกำลังผสมบางส่วนของ OpenCode, Claude Code และ Hermes เพื่อทำสถาปัตยกรรมคลาวด์เอเจนต์ที่ทำงานบนมือถือได้ดีด้วย
    • ผมลองดู pi.dev แล้วรู้สึกแปลก ๆ ที่บน GitHub มี open issue แค่ 7 อัน
      สุดท้ายก็พบว่าบอตปิดทุก issue อัตโนมัติหมดแล้ว ไม่รู้จะพูดยังไงจริง ๆ
    • Ollama Cloud ก็คุ้มค่ามากเหมือนกัน ผมใช้มาหนึ่งเดือนแล้ว ชนข้อจำกัด 5 ชั่วโมงแค่ครั้งเดียว และตอนนั้นก็เพราะรันเอเจนต์ 8 ตัวพร้อมกันเป็นเวลา 2 ชั่วโมง
  • ต่อให้ราคาโทเค็นอยู่ที่ประมาณ 1 ดอลลาร์ต่อ 1 ล้านโทเค็น การใช้โทเค็นให้หมด 200 ดอลลาร์ก็ยังง่ายจนน่าตกใจ
    คิดต่ออย่างไรก็ยังรู้สึกว่าแพ็กเกจสำหรับงานโค้ดคุ้มกว่ามาก

  • ถ้าประสิทธิภาพระดับ Sonnet เพียงพอ นี่ก็ดูเหมือนเป็นการอัปเกรดที่ชัดเจน
    แต่ Sonnet พลาดบ่อยเกินไป จนผมรู้สึกว่าการประหยัดต้นทุนด้วยโมเดลระดับนั้นสุดท้ายไม่ค่อยมีค่า ถึงอย่างนั้นการมีตัวเลือกเพิ่มก็เป็นเรื่องดี

    • หลายคนได้ผลดีจากการใช้ Opus สำหรับงานออกแบบ และใช้ qwen3.6 ที่โฮสต์เองสำหรับงานลงมือทำ
      ถ้าแบ่งเป็น Opus สำหรับออกแบบ และ DeepSeek สำหรับลงมือทำ ก็น่าจะลดค่าใช้จ่ายได้พอสมควร ส่วนตัวผมคงเลี่ยง Anthropic ไปเลย แต่ก็เข้าใจว่าทำไมคนยังใช้
    • เรายังไม่ถึงจุดอิ่มตัวที่โมเดลแนวหน้าทุกตัวฉลาดใกล้เคียงกันจนเลือกกันจากปัจจัยอื่นอย่างความเร็วหรือ effective context window ได้
      ไม่ค่อยเห็นเหตุผลว่าทำไมไม่ใช้ โมเดลที่ดีที่สุด ที่มีตอนนี้ พร้อมระดับการคิดสูงสุดหรือรองสูงสุด ไม่ว่าจะเป็นสำหรับบริษัทหรือพนักงาน ราคามันไม่ได้ถูก แต่ก็ไม่ได้แพงมากขนาดนั้น
    • ประเด็นคือคุณไม่ได้ต้องการแค่โมเดลที่ดี แต่ต้องการ โมเดลที่ดีที่สุด
      การทำสถาปัตยกรรมที่ดีต้องอ่านสเปกกับโค้ดเยอะ ทำให้ใช้ input/output token มาก และการแก้บั๊กก็เหมือนกันถ้าต้องอ่านทั้งล็อกหรือ Datadog
      พอจับทิศทางได้แล้ว แพตช์มักเป็นเรื่องเล็ก และถ้าไม่ใช่งานรีแฟกเตอร์หรือเก็บงาน การประหยัดด้วยโมเดลถูกกว่าก็มีมูลค่าไม่มาก
      การทดสอบยิ่งซับซ้อนขึ้นเรื่อย ๆ ดูแค่ opencode go ก็มีทั้ง GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro, DeepSeek V4 Flash
      ตอนนี้เราต้องเอาโมเดลพวกนี้มารันในสเกลใหญ่ทั้งที่ยังมีบั๊กอยู่ ผมก็ไม่แน่ใจว่าตัวเองพลาดอะไรไปหรือเปล่า เลยสงสัยว่าประโยชน์ที่แท้จริงของโมเดลราคาถูกกว่าคืออะไร
    • ผมต้องเรียนรู้บทเรียนนี้ซ้ำแล้วซ้ำอีก ใช้โมเดลล่าง ๆ ไปได้ดีจนโยนปัญหาที่ยากเกินไปให้มัน จากนั้นก็ลองหลายโมเดล สุดท้ายยอมแพ้แล้วเรียก Opus 4.6 มาจัดการให้เรียบร้อย
    • ผมไม่รู้สึกแบบนั้นเลยกับ Sonnet ถ้ามี Claude.md ที่แข็งแรง คอยตรวจผลลัพธ์เป็นระยะ และบังคับใช้แนวปฏิบัติการเขียนโค้ดที่ดีด้วย CI gate พื้นฐาน ก็แทบไม่เคยต้องสลับไปใช้ Opus
  • ชวนให้คิดว่านี่คือการให้ AI ยิงครั้งเดียวจบ กับงานที่จริง ๆ แค่ตั้ง environment variable สองตัวก็พอหรือเปล่า

  • ผมสงสัยว่า Claude Code เป็น execution framework สำหรับโค้ดที่ดีที่สุดจริงไหม มีที่ไหนรัน evaluation เรื่องนี้บ้างไหม?

    • จากประสบการณ์ส่วนตัว ผมว่าไม่ใช่ แม้จะเป็นโมเดล Opus ตัวเดียวกัน แต่ใน execution framework ของ third-party อย่าง Factory Droid หรือ Amp มันทำงานได้ดีกว่า
      ขณะที่ Claude Code เป็นเครื่องมือที่ได้รับการอุดหนุนมากที่สุด ทั้งจากสมาชิก Max สำหรับผู้ใช้ทั่วไปและส่วนลดโทเค็นสำหรับองค์กร อีกทั้งยังมีการปรับลดต้นทุนอย่างหนัก เช่น token caching และลดปริมาณการคิด ซึ่งก็แลกมากับคุณภาพที่ลดลง
  • หลังจากลองใช้ DeepSeek V4 ผ่าน CLI หลายตัว Langcli คืออันที่เข้ามือที่สุด สำหรับงานโปรแกรมมิงอัตรา cache hit สูงเกิน 95%
    มันสลับระหว่าง DeepSeek V4 Flash, V4 Pro และโมเดลกระแสหลักตัวอื่นได้อย่างลื่นไหลและไดนามิกในคอนเท็กซ์เดียวกัน และยังเข้ากันได้กับ Claude Code แบบ 100%

  • ผมใช้เวลาครึ่งวันทำให้ CUDA และ LLAMA รันบน 5070TI ได้
    เลยพอได้ลองใช้กับ agent mode ของ Roo ให้มันเขียนแผนก่อนแล้วหยุดไว้ แต่ถ้ามีเวลาเพิ่มก็คงลองต่อ
    DeepSeek ดูมีโอกาสถูกถอนแบบกะทันหันต่ำกว่า เพราะถ้ามีเงินพอก็โฮสต์เองได้ แต่ถึงอย่างนั้นผมก็ยังตื่นเต้นกับโซลูชันโลคัลมากกว่า
    โดยปกติสิ่งที่ต้องการก็เป็นแค่งานแรงงานง่าย ๆ ไม่ใช่การแก้ปัญหายาก

  • ชัดเจนว่าให้ความรู้สึกเหมือนเขียนร่วมกันด้วย vibe coding และราคาก็ไม่ตรงด้วย

    • ต่อจากนี้คงจะหาหัวข้อที่ไม่ได้ vibe coding ได้ยากจริง ๆ
    • เป็น vibe coding แบบหยาบมาก เครื่องจักรตรวจรายละเอียดได้ง่ายอยู่แล้ว ก็ควรเอาไปใช้กับเรื่องแบบนั้น