10 คะแนน โดย GN⁺ 6 일 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • ทำงานในรูปแบบที่ เข้ากันได้กับ OpenAI/Anthropic จึงสามารถเข้าถึง DeepSeek API ได้ด้วยวิธีเดียวกัน เพียงเปลี่ยนแค่ base_url ในการตั้งค่า SDK
  • ตัวเลือกโมเดลเริ่มต้นมี deepseek-v4-flash และ deepseek-v4-pro ส่วน deepseek-chat และ deepseek-reasoner มีกำหนดถูก deprecated ในวันที่ 2026/07/24
  • เพื่อคงความเข้ากันได้ deepseek-chat จะสอดคล้องกับ โหมด non-thinking ของ deepseek-v4-flash และ deepseek-reasoner จะสอดคล้องกับโหมด thinking
  • Chat API ถูกเรียกผ่านเอนด์พอยต์ https://api.deepseek.com/chat/completions โดยใช้เฮดเดอร์ Authorization: Bearer ${DEEPSEEK_API_KEY} และ JSON body ซึ่งตัวอย่างใช้ deepseek-v4-pro, thinking, reasoning_effort="high", stream=false
  • ทั้ง Python และ Node.js มีตัวอย่างการเรียกผ่าน OpenAI SDK โดยอ่านผลลัพธ์จาก choices[0].message.content และหากเปลี่ยนค่า stream เป็น true จะได้รับการตอบกลับแบบสตรีมมิง

เริ่มต้นเรียกใช้ API

  • DeepSeek API ใช้ รูปแบบที่เข้ากันได้กับ OpenAI/Anthropic จึงสามารถเข้าถึงได้ผ่าน OpenAI หรือ Anthropic SDK และซอฟต์แวร์ที่รองรับ API ดังกล่าว เพียงเปลี่ยนการตั้งค่า
  • โมเดลที่ใช้งานได้แสดงเป็น deepseek-v4-flash, deepseek-v4-pro, deepseek-chat, deepseek-reasoner
    • deepseek-chat และ deepseek-reasoner มีกำหนดถูก deprecated ในวันที่ 2026/07/24
    • เพื่อคงความเข้ากันได้ deepseek-chat จะสอดคล้องกับโหมด non-thinking ของ deepseek-v4-flash
    • deepseek-reasoner จะสอดคล้องกับโหมด thinking ของ deepseek-v4-flash

การเรียก Chat API

  • เมื่อออก API key แล้ว จะสามารถเข้าถึงโมเดล DeepSeek ได้ด้วยตัวอย่างใน รูปแบบ OpenAI API
    • ตัวอย่างเป็นการเรียกแบบ non-stream และหากเปลี่ยนค่า stream เป็น true จะได้รับการตอบกลับแบบสตรีมมิง
    • ตัวอย่างรูปแบบ Anthropic API สามารถดูได้ที่ Anthropic API
  • ตัวอย่าง curl ส่งคำขอไปยัง https://api.deepseek.com/chat/completions โดยใช้เฮดเดอร์ Authorization: Bearer ${DEEPSEEK_API_KEY} ร่วมกับ JSON body
    • โมเดลถูกกำหนดเป็น deepseek-v4-pro
    • ใน messages มี system message "You are a helpful assistant." และ user message "Hello!"
    • thinking ถูกตั้งค่าเป็น {"type": "enabled"}
    • reasoning_effort ถูกตั้งค่าเป็น "high"
    • stream ถูกตั้งค่าเป็น false
  • ตัวอย่าง Python จะเริ่มหลังจากติดตั้ง OpenAI SDK ก่อน
    • คำสั่งติดตั้งคือ pip3 install openai
    • ในไคลเอนต์ OpenAI ใช้ api_key=os.environ.get('DEEPSEEK_API_KEY') และ base_url="https://api.deepseek.com";
    • ในการเรียก client.chat.completions.create โมเดลถูกตั้งเป็น deepseek-v4-pro, stream=False, reasoning_effort="high"
    • ส่ง extra_body={"thinking": {"type": "enabled"}} ไปพร้อมกัน
    • แสดงผลการตอบกลับด้วย response.choices[0].message.content
  • ตัวอย่าง Node.js ก็เริ่มหลังจากติดตั้ง OpenAI SDK ก่อนเช่นกัน
    • คำสั่งติดตั้งคือ npm install openai
    • อินสแตนซ์ OpenAI ใช้ baseURL: 'https://api.deepseek.com' และ apiKey: process.env.DEEPSEEK_API_KEY
    • ในการเรียก openai.chat.completions.create จะตั้งค่า messages, model: "deepseek-v4-pro", thinking: {"type": "enabled"}, reasoning_effort: "high", stream: false
    • แสดงผลลัพธ์ด้วย completion.choices[0].message.content

1 ความคิดเห็น

 
GN⁺ 6 일 전
ความเห็นจาก Hacker News
  • โมเดลขนาดใหญ่อย่าง v4 pro มีราคาอยู่ราว 4 ดอลลาร์ต่อการสร้างผลลัพธ์ 1 ล้านโทเค็น แต่ก็ยังไม่ค่อยแน่ใจนักว่าคำพูดที่ว่า "แล็บแนวหน้ากำลังอัดเงินอุดหนุนงานอนุมานกันแบบบ้าคลั่ง" นั้นจริงแค่ไหน
    แค่ ระบบสมัครสมาชิก ก็ดูน่าจะทำกำไรได้มากพออยู่แล้ว และราคา API ก็ยิ่งไม่ต้องพูดถึง
    อินพุตอยู่ที่ $1.74/M, เอาต์พุต $3.48/M ตามราคาใน OpenRouter

    • มีคำอธิบายด้วยว่าราคาสูงเพราะตอนนี้ DeepSeek ขาดแคลนการ์ดสำหรับ inference
      ในข่าวประชาสัมพันธ์ระบุว่าเมื่อการ์ดประมวลผล Ascend 950 ออกมาในช่วงครึ่งหลังของปีนี้ ราคา Pro น่าจะลดลงมาก
    • ถ้าดูเฉพาะต้นทุนการดำเนินงานอาจมีกำไร แต่ถ้านับต้นทุนทุนที่รวม ตารางค่าเสื่อมราคา แล้ว ตอนนี้อาจยังไม่ใช่
      ถึงอย่างนั้น ช่วงนี้บรรยากาศก็เหมือนว่าการประเมินต้นทุนนั้นสูงขึ้นกว่าที่คาดไว้
    • ผมก็คิดคล้ายกัน
      บริการแบบสมัครสมาชิก น่าจะทำกำไรได้อยู่แล้ว และเรื่องเงินอุดหนุนก็ดูเหมือนเป็นตรรกะที่ใช้เพื่อดึงมาร์จินจาก API ลูกค้าองค์กรให้สูงขึ้นมากกว่า
    • ประเด็นนั้นถูกต้อง แต่ตอนนี้ยังไม่มี ผู้ให้บริการฝั่งตะวันตก ที่กดราคาได้ถึงระดับนี้
      ที่จีนค่าไฟก็ถูกกว่าด้วย
  • แปลกดีที่ เอกสารสำหรับนักพัฒนา ออกมาก่อนข่าวประชาสัมพันธ์หวือหวา แล้วกลับให้ความรู้สึกอบอุ่นอยู่เหมือนกัน

    • ใช่เลย นี่แหละ this is the way ของจริง
    • ถ้าจะเรียกสิ่งนี้ว่า โอเพนซอร์ส ก็อดสงสัยไม่ได้ว่าข้อมูลฝึกกับสคริปต์ฝึกอยู่ไหน
      พอเห็นว่าแก้ไขแล้ว ดูเหมือนคำว่า "open source" ในคอมเมนต์บนสุดจะถูกเอาออกไปแล้ว
  • ขึ้น OpenRouter แล้วเรียบร้อย
    Pro ราคาอินพุต $1.74/m เอาต์พุต $3.48/m ส่วน Flash ราคาอินพุต $0.14/m เอาต์พุต $0.28/m

  • รู้สึกดีที่ได้เห็น โอเพนซอร์ส ของจริงออกมาจากจีน
    แม้จะรู้ว่าอาจมีเจตนาแอบแฝงอยู่ แต่ก็ยังรู้สึกถูกใจอยู่ดี

    • บริษัทอเมริกันเรียกตรวจสอบตัวตนหนักเกินจำเป็นแม้แต่ตอนจะจ่ายเงินเพื่อเข้าถึงโมเดล อีกทั้งยังเก็บข้อมูล วิเคราะห์ข้อมูล และเอาไปใช้ฝึกได้ แถมยังพูดโต้งๆ ว่าอาจส่งต่อให้หน่วยงานรัฐเมื่อมีคำขอ
      เจตนาแอบแฝงของจีน ยังเป็นแค่ข้อสันนิษฐาน แต่ฝั่งอเมริกานั้นแสดงออกอย่างเปิดเผยอยู่แล้ว
    • ถ้าอยากเข้าใจว่าทำไมแล็บจีนถึงเปิดโมเดล บทความนี้ช่วยได้
      http://try.works/why-chinese-ai-labs-went-open-and-will-remain-open
    • มันเป็นแค่ open weights เท่านั้น
  • เอา 1.6T Pro base model ขึ้น Hugging Face แล้ว
    นี่เป็นครั้งแรกที่เห็นการเขียนโมเดลระดับ T แบบนี้

  • https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

    โมเดลเปิดออกมาแล้วและค่อนข้างน่าประทับใจ
    ให้ ประสิทธิภาพระดับแนวหน้า แต่ต้นทุนต่ำกว่ามาก และรู้สึกว่าดีกว่า Opus 4.6

    • ตอนนี้เริ่มรู้สึกว่าไม่จำเป็นต้องเอาโมเดลไปเทียบกับ Opus แล้วหรือเปล่า
      คนที่ใช้ Opus ก็เชื่ออยู่แล้วว่ามันดีที่สุด ส่วนคนที่ไม่ใช้ก็ไม่ต้องการทั้งต้นทุน การล็อกอิน และข้อจำกัดเหล่านั้น
      สำหรับคนที่ไม่ใช้อย่างผม ก็ยังใช้โมเดลที่ถูกและเร็วที่สุดที่ทำงานเสร็จได้ ซึ่งตอนนี้คือ MiniMax M2.5
      บางครั้งลองใช้โมเดลใหม่ที่แพงกว่าก็ได้ผลคล้ายกัน เลยอดคิดไม่ได้ว่าอาจมี การโหมเกินจริงของทั้งวงการ AI ที่ทำให้เหมือนมีแต่เบนช์มาร์กดีขึ้น
    • อยากรู้ว่าเทียบกับ Opus 4.7 แล้วเป็นอย่างไร
      สัปดาห์นี้ผมเข้าร่วมงานแฮ็กกาธอน Anthropic Opus 4.7 มาตลอดและได้ใช้ 4.7 แบบเข้มข้น แม้มันจะกินโทเค็นมากกว่า 4.6 เยอะ แต่ก็น่าประทับใจทีเดียว
    • อยากรู้ว่ามัน ดีกว่า Opus 4.6 จริง หรือแค่ปรับแต่งให้เก่งเบนช์มาร์ก
      อยากรู้ว่ามีการลองเขียนโค้ดจริงด้วย agent harness หรือยัง
      ถ้าความสามารถด้านโค้ดดีกว่า Claude Code + Opus 4.6 ผมพร้อมย้ายทันที
    • มาอีกแล้วสินะ
      ทุกวันมีโพสต์เปิดตัวที่บอกว่า ดีกว่า Opus 4.6 แต่แม้แต่ deepseek เองก็ไม่ได้อ้างว่าดีกว่า opus เมื่อคิดรวม thinking
      Dsv3 ไม่ใช่โมเดลสายปั่นตัวเลขเบนช์มาร์ก และก็ค่อนข้างเสถียรกับงานนอกเบนช์มาร์กด้วย ถึงจะยังไม่ถึง SoTA แต่ก็ใช้ได้ดี
      โมเดลนี้ก็ดูคล้ายกัน
      อยู่ในระดับ ต่ำกว่าตัวท็อปนิดเดียว แต่ช่องว่างไม่มากและราคาถูกกว่ามาก
      โมเดลใหญ่ตอนนี้ ds ให้บริการเองที่ $1.74 in / $3.48 out / $0.14 cache ซึ่งถือว่าถูกมากเมื่อเทียบกับสิ่งที่ได้
      โมเดลเล็กอยู่ที่ $0.14 in / $0.28 out / $0.028 cache ซึ่งแทบจะ ถูกจนไม่ต้องคิดมาก และอาจเป็นตัวเลือกที่พอจะรันที่บ้านได้จริง
      ถ้าประสิทธิภาพมาดีพอ ก็น่าจะแข่งกับสาย haiku หรือ gemini-flash ได้สบาย
    • ลองคำนวณคร่าวๆ จากตัวเลขเบนช์มาร์กที่เปิดเผยมา ทั้งสองตัวมีคะแนนครบใน 20 ตัวชี้วัดเดียวกันและต่างกันรวม 20.1 จุดเปอร์เซ็นต์
      การปรับดีขึ้นเฉลี่ยอยู่ที่ราว 2% ซึ่งพูดตรงๆ ก็ยังไม่แน่ใจว่าเยอะมากหรือเล็กน้อย
      Claude 4.6 ทำได้ดีกว่าเกือบ 10pp ในงานถามตอบจากบริบทยาว โดยเฉพาะ corpuses ของ CorpusQA และบทสนทนาหลายรอบของ MRCR
      ในทางกลับกัน DSv4 สูงกว่าถึง 14pp ใน IMOAnswerBench และ 12pp ใน SimpleQA-Verified
  • ดาวน์โหลดน้ำหนักโมเดลได้ที่นี่
    https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro

  • ผมสนใจเรื่องนี้ลึกมากและก็มีส่วนได้ส่วนเสียอยู่จริง แต่พูดตามตรง ตอนนี้เริ่ม หมดไฟ กับการพยายามตามทุกอย่างให้ทันแล้ว
    รู้สึกเหมือนเลยจุดที่ AI ต้องมาสรุปความก้าวหน้าของ AI ให้ AI ตามทัน ไปนานแล้ว

    • ไม่ต้องพยายามตามทุกอย่างก็ดีแล้ว
      มันคล้ายข่าวทั่วไป ถ้ามีเรื่องที่ต้องรู้จริงๆ เดี๋ยวก็ต้องมีคนมาบอกเอง
    • ผู้เล่นหลักแทบไม่เปลี่ยน
      มองมันเหมือนตามดูกีฬาได้เลย และถ้ายอมรับว่า ตำแหน่งจ่าฝูงเปลี่ยนได้ มันก็ไม่เหนื่อยขนาดนั้น
    • ในความรู้สึก หลัง GPT-4 มาก็คล้ายๆ กันไปหมด
      โมเดลใหม่ออกมาก็มักเป็นแค่เบนช์มาร์กดีขึ้นไม่กี่ตัว ส่วนประสบการณ์เชิงอัตวิสัยเวลาใช้งานจริงแทบไม่ต่าง
      หลังจากนั้นก็ไม่ค่อยมีอะไรที่น่าตื่นตะลึงจริงๆ และตอนนี้ก็ดูเหมือนจะนิ่งจนเหลือแต่กลุ่มฮาร์ดคอร์ที่ยังสนใจ
  • สิ่งที่กวนใจกว่าการที่ High Flyer ลอก Anthropic แบบโจ่งแจ้ง เพื่อทำสิ่งนี้ คือ GAB กลับให้เวลาพวกเขามากพอที่จะซ่อน easter egg ระดับ xz ไว้ข้างในเป็นสิบๆ จุด

  • เพิ่งลองผ่าน OpenRouter บน Pi Coding agent เมื่อกี้ แล้วพบว่ามันใช้เครื่องมือ read กับ write ได้ไม่ค่อยถูกบ่อยมาก
    ค่อนข้างน่าผิดหวัง และสงสัยว่ามีทางแก้ที่ดีกว่าการใส่พรอมป์ต์ประมาณ "อย่าเรียกตรง ให้ใช้เครื่องมือที่ให้มาเสมอ" หรือไม่

    • เพิ่งออกมาได้ไม่นาน น่าจะรอดูอีกหน่อยจะดีกว่า
      มีโอกาสสูงว่า การทดสอบล่วงหน้ากับ Pi ยังทำได้ไม่มากพอ