DeepClaude - ใช้งานลูปเอเจนต์ของ Claude Code ด้วย DeepSeek V4 Pro ในราคาถูกลง 17 เท่า
(github.com/aattaran)- DeepClaude จะคงลูปเครื่องมือ การแก้ไขไฟล์ bash และเวิร์กโฟลว์ git ของ Claude Code CLI ไว้เหมือนเดิม โดยเปลี่ยนเฉพาะปลายทางของการเรียก API ไปเป็นแบ็กเอนด์ที่เข้ากันได้กับ DeepSeek V4 Pro, OpenRouter, Fireworks AI และ Anthropic
- Claude Code มีค่าบริการรายเดือน $200 และมีข้อจำกัดด้านปริมาณการใช้งาน ขณะที่ DeepSeek V4 Pro ชูจุดเด่นด้วยคะแนน LiveCodeBench 96.4% และค่าราคาโทเคนขาออก $0.87/M
- รองรับการอ่าน·เขียน·แก้ไขไฟล์, การรัน Bash/PowerShell, การค้นหาแบบ Glob/Grep, ลูปเครื่องมืออัตโนมัติหลายขั้นตอน, การสร้างซับเอเจนต์, งาน git,
/initและ thinking mode ที่เปิดใช้งานเป็นค่าเริ่มต้น - แบ็กเอนด์เริ่มต้นคือ DeepSeek โดย OpenRouter มีเซิร์ฟเวอร์ในสหรัฐและมี latency ต่ำ, Fireworks AI เด่นด้านการอนุมานที่รวดเร็ว, ส่วน Anthropic เป็นตัวเลือกสำหรับใช้ Claude Opus กับโจทย์ที่ยาก
- ราคาของแต่ละแบ็กเอนด์ระบุว่า DeepSeek และ OpenRouter คิดค่าขาเข้า $0.44/M · ขาออก $0.87/M, Fireworks AI คิดค่าขาเข้า $1.74/M · ขาออก $3.48/M, และ Anthropic คิดค่าขาเข้า $3.00/M · ขาออก $15.00/M
- DeepClaude จะตั้งค่า
ANTHROPIC_BASE_URL,ANTHROPIC_AUTH_TOKEN,ANTHROPIC_DEFAULT_OPUS_MODEL,ANTHROPIC_DEFAULT_SONNET_MODEL,ANTHROPIC_DEFAULT_HAIKU_MODEL,CLAUDE_CODE_SUBAGENT_MODELเป็นรายเซสชัน และกู้คืนค่าดั้งเดิมเมื่อปิดการทำงาน - ระบบ auto context caching ของ DeepSeek จะ cache system prompt และบริบทของไฟล์หลังจากคำขอแรกในราคา $0.004/M ช่วยลดต้นทุนของลูปเอเจนต์ในรอบการทำงานซ้ำ
- การเปรียบเทียบค่าใช้งานระบุว่าเมื่อเทียบกับ Anthropic Max $200/เดือน แล้ว DeepClaude จะอยู่ที่ประมาณ $20/เดือน สำหรับการใช้งานเบา, ประมาณ $50/เดือน สำหรับการใช้งานหนัก และประมาณ $80/เดือน เมื่อรวมลูปอัตโนมัติ
- ข้อจำกัดก็มีอย่างชัดเจนเช่นกัน: Anthropic endpoint ของ DeepSeek ไม่รองรับอินพุตภาพ, Claude Code จะส่งเครื่องมือแบบลำดับต่อเนื่องเป็นค่าเริ่มต้น, MCP server tools ไม่รองรับผ่าน compatibility layer และ
cache_controlของ Anthropic จะถูกมองข้าม - รองรับ live switching สำหรับเปลี่ยนแบ็กเอนด์ระหว่างเซสชันได้โดยไม่ต้องรีสตาร์ต โดยพร็อกซี
localhost:3200จะส่ง/v1/messagesไปยังแบ็กเอนด์ที่กำลังใช้งาน และมี control endpoint คือ/_proxy/mode,/_proxy/status,/_proxy/cost - ภายใน Claude Code สามารถใช้ slash command อย่าง
/deepseek,/anthropic,/openrouterหรือเปลี่ยนแบ็กเอนด์ด้วยdeepclaude --switch dsได้ และพร็อกซียังจะคำนวณการใช้โทเคนรวมถึงจำนวนเงินที่ประหยัดได้เมื่อเทียบกับ Anthropic - สามารถรันผ่านโปรไฟล์เทอร์มินัลของ VS Code/Cursor ได้ และ
--remoteจะเปิดเซสชัน Claude Code ในเบราว์เซอร์ แต่ใช้ WebSocket bridge ของ Anthropic ขณะที่การเรียก Model API จะถูกส่งผ่านพร็อกซีภายในเครื่องไปยัง DeepSeek หรือผู้ให้บริการอื่น - สำหรับการควบคุมระยะไกล ต้องมี
claude auth login, การสมัครสมาชิก claude.ai และ Node.js 18+ สำหรับพร็อกซี โดยโปรเจกต์นี้ใช้ไลเซนส์ MIT
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
การรัน Claude Code ผ่าน DeepSeek API ทำได้แทบจะด้วยเชลล์แรปเปอร์ที่ตั้งค่า environment variable ไม่กี่ตัว
แค่ตั้ง
ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic,ANTHROPIC_AUTH_TOKEN,ANTHROPIC_MODELแล้วรันclaude $@เพียงแต่ดูเหมือน DeepSeek API จะไม่มีตัวเลือกไม่ให้นำไปใช้ฝึก และถ้ามีผู้ให้บริการรายอื่นเอาไปให้ใช้ก็น่าจะดีกว่านี้ ตอนนี้ OpenRouter ดูเหมือนแค่พร็อกซีไปที่ DeepSeek
แต่ README ที่เหมือน LLM เขียนกลับทำให้ฟีเจอร์พวกนี้ถูกกลบไปมาก และดูจากประวัติแล้วฟีเจอร์เหล่านี้ถูกเพิ่มทีหลัง แต่โครงสร้าง README ไม่ได้ถูกจัดใหม่
ผู้เขียนยังคอมมิตแผนโฆษณาบนโซเชียลมีเดียที่ดูเหมือนตั้งใจให้ได้ผลไว้ด้วย: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
แค่รันแบบ
aivo claude -m deepseek-v4-proผมไม่ค่อยเข้าใจว่ามันมีความหมายอะไรนัก DeepSeek ก็มีคำแนะนำการใช้ API กับ CLI หลายตัวรวมถึง Claude Code อยู่แล้ว
https://api-docs.deepseek.com/quick_start/agent_integrations...
ดูเหมือน LLM ที่เขียน README จะไม่ได้อัปเดตคำอธิบายโปรเจ็กต์ทั่วไปให้เน้นฟีเจอร์พวกนี้
แผนโฆษณาของผู้เขียนก็ถูกคอมมิตไว้ด้วย: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
ถ้ากำลังหา ทางเลือกของ Claude Code ผมแนะนำให้ดู pi.dev หรือ opencode เป็น execution framework ก่อน
ส่วนโมเดล ตอนนี้ OpenCode Go ดูคุ้มค่าที่สุด และต่อกับ OpenRouter หรือ DeepSeek โดยตรงก็ได้ ส่วนตัวผมคิดว่าไปทาง Kimi แล้วซื้อสมาชิก kimi.com จะดีกว่า
ในโปรเจ็กต์ส่วนตัว mouse.dev ผมกำลังผสมบางส่วนของ OpenCode, Claude Code และ Hermes เพื่อทำสถาปัตยกรรมคลาวด์เอเจนต์ที่ทำงานบนมือถือได้ดีด้วย
สุดท้ายก็พบว่าบอตปิดทุก issue อัตโนมัติหมดแล้ว ไม่รู้จะพูดยังไงจริง ๆ
ต่อให้ราคาโทเค็นอยู่ที่ประมาณ 1 ดอลลาร์ต่อ 1 ล้านโทเค็น การใช้โทเค็นให้หมด 200 ดอลลาร์ก็ยังง่ายจนน่าตกใจ
คิดต่ออย่างไรก็ยังรู้สึกว่าแพ็กเกจสำหรับงานโค้ดคุ้มกว่ามาก
ถ้าประสิทธิภาพระดับ Sonnet เพียงพอ นี่ก็ดูเหมือนเป็นการอัปเกรดที่ชัดเจน
แต่ Sonnet พลาดบ่อยเกินไป จนผมรู้สึกว่าการประหยัดต้นทุนด้วยโมเดลระดับนั้นสุดท้ายไม่ค่อยมีค่า ถึงอย่างนั้นการมีตัวเลือกเพิ่มก็เป็นเรื่องดี
ถ้าแบ่งเป็น Opus สำหรับออกแบบ และ DeepSeek สำหรับลงมือทำ ก็น่าจะลดค่าใช้จ่ายได้พอสมควร ส่วนตัวผมคงเลี่ยง Anthropic ไปเลย แต่ก็เข้าใจว่าทำไมคนยังใช้
ไม่ค่อยเห็นเหตุผลว่าทำไมไม่ใช้ โมเดลที่ดีที่สุด ที่มีตอนนี้ พร้อมระดับการคิดสูงสุดหรือรองสูงสุด ไม่ว่าจะเป็นสำหรับบริษัทหรือพนักงาน ราคามันไม่ได้ถูก แต่ก็ไม่ได้แพงมากขนาดนั้น
การทำสถาปัตยกรรมที่ดีต้องอ่านสเปกกับโค้ดเยอะ ทำให้ใช้ input/output token มาก และการแก้บั๊กก็เหมือนกันถ้าต้องอ่านทั้งล็อกหรือ Datadog
พอจับทิศทางได้แล้ว แพตช์มักเป็นเรื่องเล็ก และถ้าไม่ใช่งานรีแฟกเตอร์หรือเก็บงาน การประหยัดด้วยโมเดลถูกกว่าก็มีมูลค่าไม่มาก
การทดสอบยิ่งซับซ้อนขึ้นเรื่อย ๆ ดูแค่ opencode go ก็มีทั้ง GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro, DeepSeek V4 Flash
ตอนนี้เราต้องเอาโมเดลพวกนี้มารันในสเกลใหญ่ทั้งที่ยังมีบั๊กอยู่ ผมก็ไม่แน่ใจว่าตัวเองพลาดอะไรไปหรือเปล่า เลยสงสัยว่าประโยชน์ที่แท้จริงของโมเดลราคาถูกกว่าคืออะไร
Claude.mdที่แข็งแรง คอยตรวจผลลัพธ์เป็นระยะ และบังคับใช้แนวปฏิบัติการเขียนโค้ดที่ดีด้วย CI gate พื้นฐาน ก็แทบไม่เคยต้องสลับไปใช้ Opusชวนให้คิดว่านี่คือการให้ AI ยิงครั้งเดียวจบ กับงานที่จริง ๆ แค่ตั้ง environment variable สองตัวก็พอหรือเปล่า
ผมสงสัยว่า Claude Code เป็น execution framework สำหรับโค้ดที่ดีที่สุดจริงไหม มีที่ไหนรัน evaluation เรื่องนี้บ้างไหม?
ขณะที่ Claude Code เป็นเครื่องมือที่ได้รับการอุดหนุนมากที่สุด ทั้งจากสมาชิก Max สำหรับผู้ใช้ทั่วไปและส่วนลดโทเค็นสำหรับองค์กร อีกทั้งยังมีการปรับลดต้นทุนอย่างหนัก เช่น token caching และลดปริมาณการคิด ซึ่งก็แลกมากับคุณภาพที่ลดลง
หลังจากลองใช้ DeepSeek V4 ผ่าน CLI หลายตัว Langcli คืออันที่เข้ามือที่สุด สำหรับงานโปรแกรมมิงอัตรา cache hit สูงเกิน 95%
มันสลับระหว่าง DeepSeek V4 Flash, V4 Pro และโมเดลกระแสหลักตัวอื่นได้อย่างลื่นไหลและไดนามิกในคอนเท็กซ์เดียวกัน และยังเข้ากันได้กับ Claude Code แบบ 100%
ผมใช้เวลาครึ่งวันทำให้ CUDA และ LLAMA รันบน 5070TI ได้
เลยพอได้ลองใช้กับ agent mode ของ Roo ให้มันเขียนแผนก่อนแล้วหยุดไว้ แต่ถ้ามีเวลาเพิ่มก็คงลองต่อ
DeepSeek ดูมีโอกาสถูกถอนแบบกะทันหันต่ำกว่า เพราะถ้ามีเงินพอก็โฮสต์เองได้ แต่ถึงอย่างนั้นผมก็ยังตื่นเต้นกับโซลูชันโลคัลมากกว่า
โดยปกติสิ่งที่ต้องการก็เป็นแค่งานแรงงานง่าย ๆ ไม่ใช่การแก้ปัญหายาก
ชัดเจนว่าให้ความรู้สึกเหมือนเขียนร่วมกันด้วย vibe coding และราคาก็ไม่ตรงด้วย