1 คะแนน โดย GN⁺ 2026-03-11 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • การคำนวณ 5,000 ดอลลาร์ของแพ็กเกจ Claude Code Max ที่ Forbes อ้างถึงนั้น อิงจาก ราคาขายปลีกของ API ไม่ใช่ต้นทุนคอมพิวต์จริง
  • เมื่อเทียบราคากับโมเดล Qwen 3.5 397B และ Kimi K2.5 ของ OpenRouter จะพบว่าโมเดลขนาดใกล้เคียงกันกำลังให้บริการอยู่ที่ ประมาณหนึ่งในสิบของค่าบริการ API ของ Anthropic
  • หากคำนวณตามเกณฑ์นี้ ต้นทุนจริงโดยประมาณของ Anthropic จะอยู่ที่ราว 500 ดอลลาร์ หรือขาดทุนเพียงระดับ 300 ดอลลาร์ต่อเดือนสำหรับผู้ใช้บางรายที่ใช้งานหนัก
  • ผู้ใช้ส่วนใหญ่ไม่ได้แตะขีดจำกัดโทเค็น และเมื่อดูจากการใช้งานเฉลี่ยแล้ว โครงสร้างรายได้เป็นแบบ คุ้มทุนหรือมีกำไร
  • ความเชื่อที่ว่าต้นทุน AI inference สูงเกินจริงนั้นเป็นความเข้าใจผิด และกำลังถูกใช้เพื่อทำให้มาร์จิน API ที่สูงของบริษัท AI รายใหญ่ดูสมเหตุสมผล

ตรวจสอบข้ออ้าง 5,000 ดอลลาร์ของ Forbes

  • Forbes อ้างในบทความเกี่ยวกับ Cursor ว่า แพ็กเกจ 200 ดอลลาร์ของ Anthropic อนุญาตให้ใช้คอมพิวต์มูลค่าเทียบเท่า 5,000 ดอลลาร์
    • คำกล่าวนี้ถูกนำเสนอว่าเป็นคำพูดของ “ผู้ที่ได้เห็นการวิเคราะห์รูปแบบการใช้คอมพิวต์ของบริษัท”
  • ตัวเลขนี้เป็น การคำนวณตามราคาขายปลีกของ API จึงไม่ใช่ต้นทุนคอมพิวต์จริง
  • ค่าบริการ API ของ Anthropic สำหรับ Opus 4.6 ถูกตั้งไว้ที่ 5 ดอลลาร์ต่อ 1 ล้านโทเค็นขาเข้า และ 25 ดอลลาร์ต่อ 1 ล้านโทเค็นขาออก
    • หากคำนวณด้วยอัตรานี้ ผู้ใช้หนักอาจมีปริมาณการใช้ API แตะระดับ 5,000 ดอลลาร์ต่อเดือนได้

ประมาณการต้นทุนคอมพิวต์จริง

  • บน OpenRouter โมเดล Qwen 3.5 397B-A17B ที่มีขนาดใกล้เคียงกันมีราคาอยู่ที่ 0.39 ดอลลาร์ต่อ 1 ล้านโทเค็นขาเข้า และ 2.34 ดอลลาร์ต่อ 1 ล้านโทเค็นขาออก
    • โมเดล Kimi K2.5 มีราคาถูกกว่าอีก โดยขาเข้า 0.45 ดอลลาร์ และขาออก 2.25 ดอลลาร์
  • นี่ถูกกว่า ค่าบริการ API ของ Anthropic ราว 10 เท่า
  • ค่าใช้จ่ายของแคชโทเค็นก็แตกต่างกันในสัดส่วนใกล้เคียงกัน
    • ตัวอย่าง: ค่าการอ่านแคชของ Kimi K2.5 บน DeepInfra อยู่ที่ 0.07 ดอลลาร์/MTok ขณะที่ Anthropic อยู่ที่ 0.50 ดอลลาร์/MTok
  • ดังนั้นจึงสามารถประเมินได้ว่า ต้นทุนคอมพิวต์จริงอยู่ที่ ประมาณ 10% ของค่าบริการ API

ต้นทุนจริงของผู้ใช้ Claude Code Max

  • ผู้ใช้ที่ใช้โทเค็นในระดับเทียบเท่า 5,000 ดอลลาร์ตามราคาของ API จะมีต้นทุนจริงอยู่ที่ประมาณ 500 ดอลลาร์
    • ในกรณีนี้ Anthropic จะขาดทุนราว 300 ดอลลาร์ต่อเดือน
  • อย่างไรก็ตาม Anthropic ระบุว่า มีผู้ใช้น้อยกว่า 5% เท่านั้นที่แตะขีดจำกัดโทเค็น
    • ผู้ใช้ทั่วไปโดยเฉลี่ยใช้โทเค็น ไม่ถึง 50% ของเพดาน
  • ตามข้อมูล /cost ของ Anthropic ผู้ใช้เฉลี่ยมี มูลค่าการใช้ API รายวันราว 6 ดอลลาร์ และ 90% ใช้ไม่เกิน 12 ดอลลาร์
    • หากคิดตามต้นทุนจริงจะอยู่ที่ราว 18 ดอลลาร์ต่อเดือน ทำให้ ยังรักษาความสามารถในการทำกำไรได้เมื่อเทียบกับค่าสมาชิก 20–200 ดอลลาร์

ความต่างของต้นทุนกับ Cursor

  • ตัวเลข 5,000 ดอลลาร์มาจาก ผลการวิเคราะห์ภายในของ Cursor
    • Cursor จำเป็นต้องใช้ Opus 4.6 ของ Anthropic ด้วย ราคาขายปลีก API
  • ดังนั้นในมุมของ Cursor จึงอาจมีต้นทุนสูงถึง 5,000 ดอลลาร์ต่อผู้ใช้พาวเวอร์ยูสเซอร์หนึ่งรายต่อเดือน
    • ขณะที่ต้นทุนจริงของ Anthropic อยู่ที่ราว 500 ดอลลาร์
  • Cursor กำลังเผชิญความยากลำบากจากข้อเท็จจริงที่ว่านักพัฒนายังคง นิยมใช้โมเดลของ Anthropic

โครงสร้างรายได้ของ Anthropic และความเข้าใจผิด

  • Anthropic ยังคงอยู่ในโครงสร้างที่ขาดทุนโดยรวมจาก ต้นทุนการฝึกโมเดล ค่าจ้างบุคลากร และการลงทุนคอมพิวต์ขนาดใหญ่
  • อย่างไรก็ตาม ต้นทุน inference ระดับต่อโทเค็น มีแนวโน้มว่าจะทำกำไรได้สูง
  • ความเชื่อที่ว่า “AI inference เป็นธุรกิจที่ขาดทุน” กำลังถูกใช้เพื่อ ทำให้มาร์จินของราคา API ที่สูงเกินจริงดูสมเหตุสมผล และลดทอนการแข่งขัน
  • หากต้องการเข้าใจเศรษฐศาสตร์ของ inference จริง ๆ การอ้างอิง ราคาของโมเดลสาธารณะบน OpenRouter จะสะท้อนความเป็นจริงมากกว่า
    • เพราะตัวเลขเหล่านี้เป็นเพียง บางส่วนของต้นทุนจริงเมื่อเทียบกับค่าบริการ API ของบริษัท AI รายใหญ่

1 ความคิดเห็น

 
GN⁺ 2026-03-11
ความเห็นจาก Hacker News
  • การเอา Qwen 3.5 397B-A17B ไปเทียบกับโมเดลของ Anthropic เป็นการเปรียบเทียบที่ มั่วมาก
    เป็นที่รู้กันว่าโมเดลจีนอย่าง Qwen หรือ DeepSeek มีประสิทธิภาพมากกว่า Anthropic เกิน 10 เท่า
    นี่จึงเป็นเหตุผลว่าทำไมราคาบน OpenRouter ถึงไม่ต่างจากราคาอย่างเป็นทางการมากนัก อีกทั้งก็ยังไม่ชัดเจนด้วยว่าผู้ให้บริการบน OpenRouter ใช้เทคนิค quantization แบบใด บางทีของจริงอาจมีประสิทธิภาพมากกว่าถึง 100 เท่าก็ได้
    แน่นอนว่าไม่ใช่ผู้ใช้ทุกคนจะใช้แพลนจนเต็มเพดาน จึงไม่ได้ขาดทุนผู้ใช้ละ 5,000 ดอลลาร์

    • นั่นเป็นตรรกะวนซ้ำ เหตุผลที่เชื่อว่าโมเดลจีนมีประสิทธิภาพมากกว่า 10 เท่า ก็เพราะมันถูกกว่าถึง 10 เท่าเท่านั้น
      ถ้าดูตัวเลข t/s ของ Opus 4.5 บน Amazon Bedrock กับโมเดลจีน ก็อยู่ในระดับใกล้เคียงกัน ดังนั้น จำนวน active parameters จริงก็น่าจะใกล้กัน
      บน OpenRouter ก็เลือกผู้ให้บริการแบบ BF16 หรือ Q8 ได้โดยตรง
    • เห็นด้วย แต่ก็มีความเป็นไปได้สูงว่า Opus 4.6 เป็นโมเดลที่ใหญ่กว่า 10 เท่า GPT-4 ก็เป็นโมเดลขนาด 1.6T อยู่แล้ว และ Llama 4 ก็ใหญ่กว่านี้มาก
      บริษัทจีนมี GPU ไม่พอ แต่ก็สร้างนวัตกรรมด้าน ประสิทธิภาพการทำ inference ไว้มาก DeepSeek CEO อย่าง Liang ก็มีชื่อเป็นผู้เขียนในงานวิจัยสายนี้
    • การเอาโมเดลโอเพนซอร์สอย่าง Qwen ไปเทียบกับ Anthropic นั้นไม่มีความหมาย
      Anthropic ไม่เคยเปิดเผยสถาปัตยกรรมโมเดลหรือจำนวนพารามิเตอร์
      โมเดลโอเพนซอร์สส่วนใหญ่ใช้การกลั่นแบบ distill จากโมเดลอื่นหรือใช้ MoE เพื่อลดต้นทุนการคำนวณ
      โพสต์บล็อกที่เอา Qwen มาเป็นเกณฑ์เทียบนั้นเชื่อถือได้ยาก
    • Opus อาจทำต้นทุนได้ต่ำกว่าโดยใช้ TPU
    • ในส่วนผู้ให้บริการของ OpenRouter มีการแสดง ข้อมูล quantization อยู่
  • ตามบทความต้นทาง Cursor เคยประเมินเมื่อปีก่อนว่าซับสคริปชัน Claude Code ราคา 200 ดอลลาร์ต่อเดือน อาจใช้คอมพิวต์ได้มากสุดถึง 2,000 ดอลลาร์
    ตอนนี้เงินอุดหนุนนั้นยิ่งมากขึ้น และบอกว่าแพลนเดิมอาจใช้คอมพิวต์ได้ราว 5,000 ดอลลาร์

    • มีคนตอบว่า “นี่เป็นข้อมูลที่เปลี่ยนทุกอย่างเลย”
  • หลายคนเชื่อว่า OpenAI และ Anthropic ขายโทเค็นแบบขาดทุน แต่แทบไม่มีหลักฐานจริง
    มีมนี้แพร่หลายเพราะบทความที่คลาดเคลื่อนของ Forbes ซึ่งแม้แต่ ความต่างระหว่างค่า API กับต้นทุนคอมพิวต์ ก็ยังไม่เข้าใจ

    • แต่ก็ยากจะฟันธงเหมือนกันว่าไม่มีหลักฐานเรื่องการขายขาดทุน
      เมื่อดูจากการที่ Anthropic บล็อกการใช้งานนอก CC และมีเพดานค่าใช้จ่าย API อยู่ที่ 5,000 ดอลลาร์ ก็เป็นไปได้ว่าความสามารถทำกำไรอาจไม่สูง
    • บางคนก็แย้งว่า “บริษัทที่ขายแค่โทเค็น จะไม่ขาดทุนได้ยังไง”
      ค่าใช้จ่ายด้านวิจัย การฝึก และบุคลากรโครงสร้างพื้นฐาน ล้วนควรถูกนับรวมในต้นทุนการสร้างโทเค็น
      ราคาต่ำของโมเดล open-weight ก็เป็นการ ทุ่มตลาดเพื่อแย่งส่วนแบ่งตลาด และต้นทุนจริงสูงกว่านั้น
      สุดท้ายแล้วโครงสร้างแบบนี้คงอยู่ได้ไม่นาน
    • สิ่งที่สำคัญกว่าการที่ Anthropic ขาดทุนต่อโทเค็นหรือไม่ คือ ต้นทุนการฝึก สูงแค่ไหน
      หากโมเดลไม่ได้รับการฝึกอย่างต่อเนื่อง มูลค่าของโทเค็นก็จะลดลง
    • เอกสารที่เกี่ยวข้องอยู่ที่นี่
  • ถ้าทีมของเราใช้ Claude Code ผ่าน API จะเสียเงินเดือนละ 200,000 ดอลลาร์ แต่ในความเป็นจริงจ่ายแค่ 1,400 ดอลลาร์ต่อเดือนผ่าน Max subscription
    ตกผู้ใช้ละระดับ 50,000 ดอลลาร์ แต่เมื่อดูจำนวน JSON token แล้ว ส่วนใหญ่เป็น คำขอที่แคชไว้ จึงน่าจะมีต้นทุนจริงต่ำกว่านี้มาก

    • อยากรู้ว่าจัดสรรงานแบบไหนถึงทำได้มีประสิทธิภาพขนาดนั้น ฉันก็ใช้ Claude เยอะ แต่เดี๋ยวก็ชนลิมิต
    • Gemini CLI แสดง อัตราการประหยัดจากแคช ต่อเซสชัน ซึ่งปกติอยู่ราว 90%
    • ฉันก็รัน Claude agent หลายตัวเหมือนกัน และ 85% ของ input token เป็นการอ่านจากแคช
      ต้นทุนจริงน่าจะอยู่แถว 25,000~30,000 ดอลลาร์ การประเมิน 5,000 ดอลลาร์ของ Forbes นั้นเวอร์ไป
    • ถ้าดูล็อกในเครื่องด้วย npx ccusage ก็จะคำนวณต้นทุนตามราคา API ได้
    • แต่ก็สงสัยว่าการใช้แพลน Max เพื่อการใช้งานของบริษัทนี่ ผิดข้อกำหนดการใช้งาน หรือเปล่า
  • ถ้าคอมพิวต์ของ Anthropic อิ่มตัวเต็มที่จริง ผู้ใช้ Claude Code แบบ power user อาจสร้างต้นทุนค่าเสียโอกาสได้ถึง 5,000 ดอลลาร์ต่อคน
    แต่การเปรียบเทียบแบบนี้ก็ไม่เหมาะพอๆ กับการเอา จำนวนเฟือง ของ Rolex ไปเทียบกับนาฬิกาไม่มีแบรนด์

    • ค่าเสียโอกาสไม่ใช่ต้นทุนจริง ประเด็นสำคัญคือ Anthropic อิ่มตัวจนขายซับสคริปชันเพิ่มไม่ได้แล้วหรือยัง
    • ยิ่ง GPU farm ถูกใช้งานเต็มมากขึ้น ต้นทุนต่อหน่วยกลับอาจลดลงเพราะผลของ batching
    • วงการบันเทิงก็ชอบใช้คำว่า “ค่าเสียโอกาส” เช่นกัน แต่ในความเป็นจริงมักจบลงด้วยการบริโภคที่ลดลง
      Anthropic ก็เช่นกัน ผู้ใช้อาจเริ่มตั้งคำถามกับคุณภาพที่ไม่แน่นอน หรือหันไปใช้ การคิดเงินแบบ API มากขึ้น
    • มีมุกด้วยว่า “หวังว่าสถานการณ์ที่ฉันใช้ Opus ได้สบายๆ ด้วยซับสคริปชัน 100 ดอลลาร์จะยังอยู่ต่อไป”
  • ต้นทุน inference และอัตรากำไร ต่างกันมากระหว่างโมเดล open-weight กับผู้ให้บริการคลาวด์รายใหญ่
    คล้ายกับความต่างระหว่างต้นทุน R&D ในอุตสาหกรรมยา กับต้นทุนการผลิตยาสามัญ
    คาดว่า margin จาก inference ของ OpenAI อยู่ราว 70% ส่วน Anthropic อยู่ราว 40~90%
    บทความที่เกี่ยวข้อง: Phemex, SaaStr, The Information, Investing.com

    • มีความเห็นว่าอย่าใช้คำว่า “profit” กันง่ายเกินไป
      ตามหลักบัญชีแล้ว รายได้ต่อโมเดลอาจชดเชยต้นทุนการฝึกไปแล้ว
      แต่ถ้ามองในแง่กระแสเงินสด ก็ยังไม่ cashflow positive
      ถ้าไม่เข้าใจความต่างนี้ ก็จะประเมินอุตสาหกรรม AI ทั้งระบบต่ำเกินไป
  • ยังไม่มั่นใจว่า ขนาดโมเดล ของ Opus 4.6 อยู่ที่เท่าไร
    คาดว่าน่าจะใหญ่กว่า Qwen397B มาก

    • จากที่ Musk บอกว่า Grok มีพารามิเตอร์ระดับหลายล้านล้าน Opus ก็อาจอยู่ในระดับนั้นเหมือนกัน
      Anthropic น่าจะทำเงินจาก API ได้อยู่ แต่คงไม่ได้ margin 90%
    • DeepSeek v3.2 ของ OpenRouter (685B/37B active) ตั้งราคาไว้ที่ $0.26/0.40 และ Kimi K2.5 (1T/32B active) อยู่ที่ $0.45/2.25
    • ถ้าเป็นผู้เชี่ยวชาญก็คงประเมินว่า Opus อยู่ที่ราว 1~2 ล้านล้านพารามิเตอร์
  • แคชนั้นแทบจะ ใกล้เคียงกับฟรี แต่ก็ไม่ฟรีเสียทีเดียว
    ถ้าหักต้นทุนโทเค็นจากแคชออก ปริมาณคอมพิวต์จริงของซับสคริปชัน 200 ดอลลาร์จะลดลงมาเหลือราว 800 ดอลลาร์
    คอมพิวต์ส่วนใหญ่อาจอยู่ในสถานะ ว่างงาน

    • แต่แคชต้องกิน RAM ค้างไว้ตลอด จึงไม่ฟรีทั้งหมด
      ถ้าแคชไม่ฮิต ก็จะเกิด ค่าเสียโอกาส ตามนั้น
    • ด้วยแคช ทำให้ขาย inference ให้ผู้ใช้ได้มากขึ้นในระดับราคาพรีเมียม ดังนั้นมันจึงเป็น เครื่องมือเพิ่มกำไร โดยพฤตินัย
    • ถ้าไม่ใช่คอมพิวต์ที่ว่างอยู่ ทรัพยากรนั้นก็อาจเอาไปใช้กับ การฝึกโมเดลหรือการทดลองวิจัย ได้
  • Cursor ต้องใช้ Opus 4.6 ในราคา retail API ของ Anthropic จึงอาจมีต้นทุนถึง 5,000 ดอลลาร์ต่อเดือนต่อ power user
    ขณะที่ต้นทุนจริงของ Anthropic น่าจะอยู่แถว 500 ดอลลาร์
    เพิ่งไปฟังเรื่องกลยุทธ์ cloud agent ของ Cursor จาก พอดแคสต์ Swix มา และรู้สึกว่า กำแพงการเข้าสู่ตลาดกำลังต่ำลง

  • ซับสคริปชัน Claude มีลักษณะคล้ายแนวคิด spot instance มากกว่า
    ส่วน API เป็นบริการแบบ on-demand และให้ความสำคัญกับ API มากกว่า
    คอมพิวต์ที่เหลือจึงถูกจัดสรรให้ผู้ใช้ซับสคริปชัน และถ้าความจุไม่พอ ก็จะถูกส่งต่อไปยัง โมเดลราคาถูกที่ผ่านการ quantization
    ซับสคริปชันแบบนี้ช่วยใช้ทรัพยากรว่างให้คุ้มค่า และยังมีบทบาทช่วยเพิ่ม คุณภาพการฝึกโมเดล ผ่าน workflow ที่คาดการณ์ได้
    ฉันลองใช้ทั้ง Qwen Code, Codex และ Claude แล้ว โดย Codex ดีกว่า Qwen ราว 2 เท่า และ Claude ก็ดีกว่า Codex ราว 2 เท่า
    ดังนั้นจึงคาดว่า Claude Opus น่าจะแพงกว่า Qwen Code ราว 4~5 เท่า

    • ข้อความที่ว่า “Claude ดีกว่า Codex 2 เท่า” นั้น ตอนนี้ไม่เป็นความจริงแล้ว
    • ส่วนที่บอกว่า “ถ้าความจุไม่พอจะถูกส่งไปยังโมเดลราคาถูก” นั้นก็ ไม่เคยมีการประกาศอย่างเป็นทางการ