DeepSeek v4
(huggingface.co)- ทำงานในรูปแบบที่ เข้ากันได้กับ OpenAI/Anthropic จึงสามารถเข้าถึง DeepSeek API ได้ด้วยวิธีเดียวกัน เพียงเปลี่ยนแค่
base_urlในการตั้งค่า SDK - ตัวเลือกโมเดลเริ่มต้นมี
deepseek-v4-flashและdeepseek-v4-proส่วนdeepseek-chatและdeepseek-reasonerมีกำหนดถูก deprecated ในวันที่ 2026/07/24 - เพื่อคงความเข้ากันได้
deepseek-chatจะสอดคล้องกับ โหมด non-thinking ของdeepseek-v4-flashและdeepseek-reasonerจะสอดคล้องกับโหมด thinking - Chat API ถูกเรียกผ่านเอนด์พอยต์
https://api.deepseek.com/chat/completionsโดยใช้เฮดเดอร์Authorization: Bearer ${DEEPSEEK_API_KEY}และ JSON body ซึ่งตัวอย่างใช้deepseek-v4-pro,thinking,reasoning_effort="high",stream=false - ทั้ง Python และ Node.js มีตัวอย่างการเรียกผ่าน OpenAI SDK โดยอ่านผลลัพธ์จาก
choices[0].message.contentและหากเปลี่ยนค่าstreamเป็นtrueจะได้รับการตอบกลับแบบสตรีมมิง
เริ่มต้นเรียกใช้ API
- DeepSeek API ใช้ รูปแบบที่เข้ากันได้กับ OpenAI/Anthropic จึงสามารถเข้าถึงได้ผ่าน OpenAI หรือ Anthropic SDK และซอฟต์แวร์ที่รองรับ API ดังกล่าว เพียงเปลี่ยนการตั้งค่า
- สำหรับ OpenAI ค่า
base_urlคือhttps://api.deepseek.com - สำหรับ Anthropic ค่า
base_urlคือhttps://api.deepseek.com/anthropic - ต้องออก
api_keyแยกต่างหาก
- สำหรับ OpenAI ค่า
- โมเดลที่ใช้งานได้แสดงเป็น
deepseek-v4-flash,deepseek-v4-pro,deepseek-chat,deepseek-reasonerdeepseek-chatและdeepseek-reasonerมีกำหนดถูก deprecated ในวันที่ 2026/07/24- เพื่อคงความเข้ากันได้
deepseek-chatจะสอดคล้องกับโหมด non-thinking ของdeepseek-v4-flash deepseek-reasonerจะสอดคล้องกับโหมด thinking ของdeepseek-v4-flash
การเรียก Chat API
- เมื่อออก API key แล้ว จะสามารถเข้าถึงโมเดล DeepSeek ได้ด้วยตัวอย่างใน รูปแบบ OpenAI API
- ตัวอย่างเป็นการเรียกแบบ non-stream และหากเปลี่ยนค่า
streamเป็นtrueจะได้รับการตอบกลับแบบสตรีมมิง - ตัวอย่างรูปแบบ Anthropic API สามารถดูได้ที่ Anthropic API
- ตัวอย่างเป็นการเรียกแบบ non-stream และหากเปลี่ยนค่า
- ตัวอย่าง
curlส่งคำขอไปยังhttps://api.deepseek.com/chat/completionsโดยใช้เฮดเดอร์Authorization: Bearer ${DEEPSEEK_API_KEY}ร่วมกับ JSON body- โมเดลถูกกำหนดเป็น
deepseek-v4-pro - ใน
messagesมี system message"You are a helpful assistant."และ user message"Hello!" thinkingถูกตั้งค่าเป็น{"type": "enabled"}reasoning_effortถูกตั้งค่าเป็น"high"streamถูกตั้งค่าเป็นfalse
- โมเดลถูกกำหนดเป็น
- ตัวอย่าง Python จะเริ่มหลังจากติดตั้ง OpenAI SDK ก่อน
- คำสั่งติดตั้งคือ
pip3 install openai - ในไคลเอนต์
OpenAIใช้api_key=os.environ.get('DEEPSEEK_API_KEY')และbase_url="https://api.deepseek.com" - ในการเรียก
client.chat.completions.createโมเดลถูกตั้งเป็นdeepseek-v4-pro,stream=False,reasoning_effort="high" - ส่ง
extra_body={"thinking": {"type": "enabled"}}ไปพร้อมกัน - แสดงผลการตอบกลับด้วย
response.choices[0].message.content
- คำสั่งติดตั้งคือ
- ตัวอย่าง Node.js ก็เริ่มหลังจากติดตั้ง OpenAI SDK ก่อนเช่นกัน
- คำสั่งติดตั้งคือ
npm install openai - อินสแตนซ์
OpenAIใช้baseURL: 'https://api.deepseek.com'และapiKey: process.env.DEEPSEEK_API_KEY - ในการเรียก
openai.chat.completions.createจะตั้งค่าmessages,model: "deepseek-v4-pro",thinking: {"type": "enabled"},reasoning_effort: "high",stream: false - แสดงผลลัพธ์ด้วย
completion.choices[0].message.content
- คำสั่งติดตั้งคือ
1 ความคิดเห็น
ความเห็นจาก Hacker News
โมเดลขนาดใหญ่อย่าง v4 pro มีราคาอยู่ราว 4 ดอลลาร์ต่อการสร้างผลลัพธ์ 1 ล้านโทเค็น แต่ก็ยังไม่ค่อยแน่ใจนักว่าคำพูดที่ว่า "แล็บแนวหน้ากำลังอัดเงินอุดหนุนงานอนุมานกันแบบบ้าคลั่ง" นั้นจริงแค่ไหน
แค่ ระบบสมัครสมาชิก ก็ดูน่าจะทำกำไรได้มากพออยู่แล้ว และราคา API ก็ยิ่งไม่ต้องพูดถึง
อินพุตอยู่ที่ $1.74/M, เอาต์พุต $3.48/M ตามราคาใน OpenRouter
ในข่าวประชาสัมพันธ์ระบุว่าเมื่อการ์ดประมวลผล Ascend 950 ออกมาในช่วงครึ่งหลังของปีนี้ ราคา Pro น่าจะลดลงมาก
ถึงอย่างนั้น ช่วงนี้บรรยากาศก็เหมือนว่าการประเมินต้นทุนนั้นสูงขึ้นกว่าที่คาดไว้
บริการแบบสมัครสมาชิก น่าจะทำกำไรได้อยู่แล้ว และเรื่องเงินอุดหนุนก็ดูเหมือนเป็นตรรกะที่ใช้เพื่อดึงมาร์จินจาก API ลูกค้าองค์กรให้สูงขึ้นมากกว่า
ที่จีนค่าไฟก็ถูกกว่าด้วย
แปลกดีที่ เอกสารสำหรับนักพัฒนา ออกมาก่อนข่าวประชาสัมพันธ์หวือหวา แล้วกลับให้ความรู้สึกอบอุ่นอยู่เหมือนกัน
พอเห็นว่าแก้ไขแล้ว ดูเหมือนคำว่า "open source" ในคอมเมนต์บนสุดจะถูกเอาออกไปแล้ว
ขึ้น OpenRouter แล้วเรียบร้อย
Pro ราคาอินพุต $1.74/m เอาต์พุต $3.48/m ส่วน Flash ราคาอินพุต $0.14/m เอาต์พุต $0.28/m
ฝั่งนี้ขึ้น Api Error
แต่โมเดลอื่นใช้งานได้ปกติทั้งหมด
https://openrouter.ai/deepseek/deepseek-v4-pro
https://openrouter.ai/deepseek/deepseek-v4-flash
รู้สึกดีที่ได้เห็น โอเพนซอร์ส ของจริงออกมาจากจีน
แม้จะรู้ว่าอาจมีเจตนาแอบแฝงอยู่ แต่ก็ยังรู้สึกถูกใจอยู่ดี
เจตนาแอบแฝงของจีน ยังเป็นแค่ข้อสันนิษฐาน แต่ฝั่งอเมริกานั้นแสดงออกอย่างเปิดเผยอยู่แล้ว
http://try.works/why-chinese-ai-labs-went-open-and-will-remain-open
เอา 1.6T Pro base model ขึ้น Hugging Face แล้ว
นี่เป็นครั้งแรกที่เห็นการเขียนโมเดลระดับ T แบบนี้
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
โมเดลเปิดออกมาแล้วและค่อนข้างน่าประทับใจ
ให้ ประสิทธิภาพระดับแนวหน้า แต่ต้นทุนต่ำกว่ามาก และรู้สึกว่าดีกว่า Opus 4.6
คนที่ใช้ Opus ก็เชื่ออยู่แล้วว่ามันดีที่สุด ส่วนคนที่ไม่ใช้ก็ไม่ต้องการทั้งต้นทุน การล็อกอิน และข้อจำกัดเหล่านั้น
สำหรับคนที่ไม่ใช้อย่างผม ก็ยังใช้โมเดลที่ถูกและเร็วที่สุดที่ทำงานเสร็จได้ ซึ่งตอนนี้คือ MiniMax M2.5
บางครั้งลองใช้โมเดลใหม่ที่แพงกว่าก็ได้ผลคล้ายกัน เลยอดคิดไม่ได้ว่าอาจมี การโหมเกินจริงของทั้งวงการ AI ที่ทำให้เหมือนมีแต่เบนช์มาร์กดีขึ้น
สัปดาห์นี้ผมเข้าร่วมงานแฮ็กกาธอน Anthropic Opus 4.7 มาตลอดและได้ใช้ 4.7 แบบเข้มข้น แม้มันจะกินโทเค็นมากกว่า 4.6 เยอะ แต่ก็น่าประทับใจทีเดียว
อยากรู้ว่ามีการลองเขียนโค้ดจริงด้วย agent harness หรือยัง
ถ้าความสามารถด้านโค้ดดีกว่า Claude Code + Opus 4.6 ผมพร้อมย้ายทันที
ทุกวันมีโพสต์เปิดตัวที่บอกว่า ดีกว่า Opus 4.6 แต่แม้แต่ deepseek เองก็ไม่ได้อ้างว่าดีกว่า opus เมื่อคิดรวม thinking
Dsv3 ไม่ใช่โมเดลสายปั่นตัวเลขเบนช์มาร์ก และก็ค่อนข้างเสถียรกับงานนอกเบนช์มาร์กด้วย ถึงจะยังไม่ถึง SoTA แต่ก็ใช้ได้ดี
โมเดลนี้ก็ดูคล้ายกัน
อยู่ในระดับ ต่ำกว่าตัวท็อปนิดเดียว แต่ช่องว่างไม่มากและราคาถูกกว่ามาก
โมเดลใหญ่ตอนนี้ ds ให้บริการเองที่ $1.74 in / $3.48 out / $0.14 cache ซึ่งถือว่าถูกมากเมื่อเทียบกับสิ่งที่ได้
โมเดลเล็กอยู่ที่ $0.14 in / $0.28 out / $0.028 cache ซึ่งแทบจะ ถูกจนไม่ต้องคิดมาก และอาจเป็นตัวเลือกที่พอจะรันที่บ้านได้จริง
ถ้าประสิทธิภาพมาดีพอ ก็น่าจะแข่งกับสาย haiku หรือ gemini-flash ได้สบาย
การปรับดีขึ้นเฉลี่ยอยู่ที่ราว 2% ซึ่งพูดตรงๆ ก็ยังไม่แน่ใจว่าเยอะมากหรือเล็กน้อย
Claude 4.6 ทำได้ดีกว่าเกือบ 10pp ในงานถามตอบจากบริบทยาว โดยเฉพาะ corpuses ของ CorpusQA และบทสนทนาหลายรอบของ MRCR
ในทางกลับกัน DSv4 สูงกว่าถึง 14pp ใน IMOAnswerBench และ 12pp ใน SimpleQA-Verified
ดาวน์โหลดน้ำหนักโมเดลได้ที่นี่
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro
https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash-Base
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro-Base
ดีมากที่มี base model ใหม่ออกมาด้วย
ผมสนใจเรื่องนี้ลึกมากและก็มีส่วนได้ส่วนเสียอยู่จริง แต่พูดตามตรง ตอนนี้เริ่ม หมดไฟ กับการพยายามตามทุกอย่างให้ทันแล้ว
รู้สึกเหมือนเลยจุดที่ AI ต้องมาสรุปความก้าวหน้าของ AI ให้ AI ตามทัน ไปนานแล้ว
มันคล้ายข่าวทั่วไป ถ้ามีเรื่องที่ต้องรู้จริงๆ เดี๋ยวก็ต้องมีคนมาบอกเอง
มองมันเหมือนตามดูกีฬาได้เลย และถ้ายอมรับว่า ตำแหน่งจ่าฝูงเปลี่ยนได้ มันก็ไม่เหนื่อยขนาดนั้น
โมเดลใหม่ออกมาก็มักเป็นแค่เบนช์มาร์กดีขึ้นไม่กี่ตัว ส่วนประสบการณ์เชิงอัตวิสัยเวลาใช้งานจริงแทบไม่ต่าง
หลังจากนั้นก็ไม่ค่อยมีอะไรที่น่าตื่นตะลึงจริงๆ และตอนนี้ก็ดูเหมือนจะนิ่งจนเหลือแต่กลุ่มฮาร์ดคอร์ที่ยังสนใจ
สิ่งที่กวนใจกว่าการที่ High Flyer ลอก Anthropic แบบโจ่งแจ้ง เพื่อทำสิ่งนี้ คือ GAB กลับให้เวลาพวกเขามากพอที่จะซ่อน easter egg ระดับ xz ไว้ข้างในเป็นสิบๆ จุด
เพิ่งลองผ่าน OpenRouter บน Pi Coding agent เมื่อกี้ แล้วพบว่ามันใช้เครื่องมือ read กับ write ได้ไม่ค่อยถูกบ่อยมาก
ค่อนข้างน่าผิดหวัง และสงสัยว่ามีทางแก้ที่ดีกว่าการใส่พรอมป์ต์ประมาณ "อย่าเรียกตรง ให้ใช้เครื่องมือที่ให้มาเสมอ" หรือไม่
มีโอกาสสูงว่า การทดสอบล่วงหน้ากับ Pi ยังทำได้ไม่มากพอ