• ตรงกันข้ามกับความคาดหวังว่า ต้นทุนโทเค็นของ LLM จะลดลงปีละ 10 เท่า กลับเกิดปรากฏการณ์ที่บริการสมัครสมาชิก AI มีความสามารถในการทำกำไรแย่ลงเรื่อย ๆ
  • ความต้องการต่อโมเดล LLM รุ่นล่าสุดมักกระจุกอยู่ที่ โมเดลระดับสูงสุด (SOTA, State-of-the-art) เสมอ ทำให้การลดราคาของโมเดล “รุ่นเก่า” ไม่ได้นำไปสู่การลดต้นทุนจริงอย่างมีนัยสำคัญ
  • ยิ่งประสิทธิภาพโมเดลสูงขึ้น ปริมาณโทเค็นที่ใช้ก็เพิ่มขึ้นแบบทวีคูณ จนหักล้างการลดลงของราคาต่อหน่วย และกลับทำให้ต้นทุนรวมพุ่งสูงขึ้นแทน
  • การทดลองแพ็กเกจสมัครสมาชิกแบบไม่จำกัด (เช่น Claude Code $200/เดือน) ก็ ไม่ยั่งยืนเพราะโทเค็นของผู้ใช้หนักพุ่งทะลัก
  • ในระยะยาวไม่มีโมเดลใดที่ยั่งยืนนอกจาก การคิดค่าบริการตามการใช้งาน แต่การนำมาใช้จริงทำได้ยากจากการแข่งขันของสตาร์ตอัปและแรงต้านจากผู้บริโภค
  • หากไม่เปลี่ยนไปสู่ โมเดลรายได้ ที่ยั่งยืน สตาร์ตอัปส่วนใหญ่ก็จะเผชิญความเสี่ยงล้มละลายในที่สุด

ธุรกิจสมัครสมาชิก AI ทำไมยิ่งขาดทุน ทั้งที่ราคาโทเค็นลดลง

ภาพลวงของการลดลงของราคา LLM

  • ผู้ก่อตั้งจำนวนมากเชื่อใน VC playbook ที่ว่า “ราคาต่อโทเค็นจะลดลง 10 เท่าเรื่อย ๆ แค่ประคองไปก่อน เดี๋ยวก็เปลี่ยนเป็นธุรกิจมาร์จิ้นสูงได้” จึงเปิดขายบริการสมัครสมาชิกในช่วงแรกที่ระดับต้นทุนหรือถึงขั้นขาดทุน
  • ในความเป็นจริง ราคาต่อโทเค็นของ โมเดลรุ่นเก่าอย่าง GPT-3.5 ลดลงมากกว่า 10 เท่า แต่ความต้องการของผู้ใช้และตลาดกลับเทไปที่ โมเดลใหม่ล่าสุดและดีที่สุด (SOTA) เสมอ
  • ในทางปฏิบัติ เมื่อผ่านไป 18 เดือน มาร์จิ้นไม่ได้ดีขึ้น กลับแย่ลงเสียด้วยซ้ำ
  • การลดราคาของโมเดลรุ่นเก่าจะรู้สึกได้ก็ต่อเมื่อมันกลายเป็นของที่ตลาดเลิกสนใจไปแล้ว เหมือน “หนังสือพิมพ์เมื่อวาน”

ราคาและโครงสร้างอุปสงค์ของโมเดลล่าสุด

  • โมเดลล่าสุดอย่าง GPT-4, Claude 3 Opus มักเปิดตัวมาด้วยราคาสูงใกล้เคียงกันเสมอ และไม่ว่าโมเดลรุ่นเก่าจะถูกลงแค่ไหน ปริมาณการใช้งานจริงก็ยังน้อยมาก
  • ผู้ใช้ต้องการเพียง “ประสิทธิภาพดีที่สุด” ส่วน “โมเดลเก่าราคาถูก” ก็ไม่ต่างจากรถมือสองเก่าในตลาดรถยนต์
  • เพราะสิ่งที่ผู้ใช้ต้องการจริง ๆ จาก AI คือ ผลลัพธ์ที่ดีที่สุด จึงแทบไม่ค่อยมีใครสมัครใจใช้โมเดลรุ่นเก่าเพียงเพื่อประหยัดค่าใช้จ่าย
  • สุดท้ายแล้ว หากอยากแข่งขันได้ในตลาด ก็ต้องมี โมเดลล่าสุดที่แพงที่สุด ให้บริการอยู่เสมอ และนั่นทำให้ต้นทุนยังคงอยู่ต่อไป
    • คล้ายกับสถานการณ์ที่ราคารถมือสองจากยุค 90 ลดลง แต่ผู้บริโภคก็ยังซื้อรถใหม่อยู่ดี

การเพิ่มขึ้นแบบระเบิดของการใช้โทเค็น

  • เมื่อประสิทธิภาพของโมเดลสูงขึ้น ก็เกิดปรากฏการณ์ที่ งานหนึ่งครั้งใช้โทเค็นเพิ่มขึ้นแบบทวีคูณ
  • งานที่ในอดีตจบได้ด้วย 1,000 โทเค็น ตอนนี้อาจใช้ถึง 100,000 โทเค็น
  • แต่ก่อนอาจเป็นแค่ถามหนึ่งประโยค ตอบหนึ่งประโยค แต่ปัจจุบันกลายเป็นการทำรีเสิร์ชซับซ้อน ลูป หรือ orchestration ที่ทำงานต่อเนื่อง 10–20 นาที และใช้โทเค็นจำนวนมหาศาล
  • เมื่อให้ AI ทำงานวิจัย/วิเคราะห์เชิงลึกมากขึ้น ก็เกิดรูปแบบอย่าง “รันครั้งละ 20 นาที รันต่อเนื่อง 24 ชั่วโมงต่อวัน” ทำให้ การใช้งานเฉลี่ยต่อวันต่อผู้ใช้พุ่งขึ้นอย่างรวดเร็ว
    • ตัวอย่างเช่น หากใช้ 'deep research' มูลค่า $1 เพียงวันละครั้ง ค่าสมาชิก $20 ก็ไม่คุ้มทุนแล้ว
  • ส่วนที่ได้จากการลดลงของราคาต่อหน่วยถูก การเพิ่มขึ้นของปริมาณโทเค็นที่ใช้ทั้งหมดหักล้างหมด จนเกิดสถานการณ์ที่แพ็กเกจ $20/เดือนไม่สามารถรองรับงานราคา $1 ได้แม้แต่วันละครั้ง

ความล้มเหลวของแพ็กเกจไม่จำกัด

  • Anthropic กับ Claude Code เป็นต้น ได้ลองใช้แพ็กเกจ ไม่จำกัด $200/เดือน, การปรับโทเค็นอัตโนมัติ, การใช้พีซีของผู้ใช้ และมาตรการลดต้นทุนอีกหลายแบบ
  • แต่ผู้ใช้ระดับพาวเวอร์บางรายใช้โทเค็นเกือบ 10,000 ล้านโทเค็นต่อเดือน (เทียบเท่ากับ “War and Peace” 12,500 เล่ม) เพราะผู้ใช้สามารถอาศัยระบบอัตโนมัติ งานซ้ำ ๆ และลูป เพื่อเร่งการใช้โทเค็นอย่างมหาศาล
    • “การใช้ AI แยกขาดจากเวลาของมนุษย์ API จึงรัน 24 ชั่วโมงและทำให้โทเค็นพุ่งทะลัก”
  • ท้ายที่สุด แม้จะมีนวัตกรรมทางวิศวกรรม ก็ยังต้องย้อนกลับนโยบายแพ็กเกจ
  • บทสรุปคือ: โมเดลสมัครสมาชิกแบบไม่จำกัดเป็นไปไม่ได้แล้ว เพราะสมการนี้ใช้การไม่ได้อีกต่อไป

ภาวะกลืนไม่เข้าคายไม่ออกที่ทั้งอุตสาหกรรมต้องเผชิญ

  • หากยังดันทุรังยึดติดกับโมเดลสมัครสมาชิกต่อไป ความเสี่ยงจาก ความสามารถในการทำกำไรที่แย่ลง และการล่มสลายก็จะยิ่งสูงขึ้น
  • บริษัท AI ต่างก็รู้ว่า คำตอบมีเพียง การคิดค่าบริการตามการใช้งาน (usage-based pricing) แต่หากมีคู่แข่งที่ใช้ระบบสมัครสมาชิกเข้ามา ก็เสี่ยงเสียผู้ใช้ได้มาก
  • ด้วยโครงสร้างแบบ “prisoner’s dilemma” ทุกฝ่ายจึงถูกบีบให้เข้าสู่ การแข่งขันอุดหนุนผู้ใช้หนัก
  • Cursor, Replit และรายอื่น ๆ ก็ใช้แนวทาง “โตให้ได้ก่อน เรื่องกำไรค่อยว่ากันทีหลัง” แต่ท้ายที่สุดก็เลี่ยงการปรับโครงสร้างเมื่อปัญหากำไรปะทุขึ้นไม่ได้

แนวทางแก้ที่เป็นจริง 3 ข้อ

  • 1. คิดค่าบริการตามการใช้งาน
    • หากนำโมเดลเศรษฐศาสตร์ที่ตรงไปตรงมามาใช้ตั้งแต่ต้น ก็สามารถออกแบบโครงสร้างรายได้ที่ไม่ต่ำกว่าต้นทุนได้ และในระยะยาวนี่คือโมเดลเดียวที่ยั่งยืน
    • แต่ผู้บริโภคไม่ชอบค่าบริการแบบคิดตามมิเตอร์อย่างมาก จึงมีข้อจำกัดด้านความสำเร็จในวงกว้าง
  • 2. เจาะตลาดองค์กรที่มีต้นทุนการย้ายสูง
    • ทำ B2B sales กับ ลูกค้าองค์กร (เช่น บริษัทยักษ์ใหญ่, สถาบันการเงิน) ที่มีต้นทุนการเปลี่ยนระบบสูง เมื่อเข้าไปอยู่ในตลาดได้แล้วก็แทบยกเลิกไม่ได้ และทำมาร์จิ้นได้สูง
    • กลุ่ม system of record (SOR, เช่น CRM/ERP/EHR) เป็นตัวอย่างความสำเร็จที่ชัดเจน (เช่น การนำไปใช้กับวิศวกร 40,000 คนของ Goldman Sachs)
  • 3. สร้างมูลค่าเพิ่มผ่านการบูรณาการแนวดิ่ง (Vertical Integration)
    • แบบ Replit ที่ยอมให้ LLM inference เป็น “สินค้าล่อ” ที่ขาดทุน แล้วไปสร้างรายได้จากบริการอื่นที่วางอยู่ด้านบน เช่น โฮสติ้ง, ฐานข้อมูล, การ deploy, การมอนิเตอร์
    • สร้างโครงสร้างที่ทำให้การใช้ AI เพิ่มขึ้นแล้วต่อยอดเข้าสู่ตลาดโครงสร้างพื้นฐาน
  • ต่อจากนี้แม้ ราคาต่อโทเค็นจะยังลดลงต่อไป แต่ความคาดหวังและปริมาณการใช้งานของผู้ใช้ก็จะเพิ่มขึ้นแบบทวีคูณเช่นกัน
  • บริษัทที่ยังยึดติดกับกลยุทธ์สมัครสมาชิกเพื่อการเติบโตเพียงอย่างเดียว มีความเสี่ยงสูงที่จะต้องจัด “งานศพต้นทุนสูง” ให้ตัวเองในที่สุด

สรุป

  • การมองโลกในแง่ดีว่า “ปีหน้าโทเค็นจะถูกลงอีก 10 เท่า” เพียงอย่างเดียว ไม่เพียงพอให้ธุรกิจอยู่รอด
    • ผู้ใช้จะเรียกร้องทั้งความคาดหวังที่สูงขึ้นและปริมาณการใช้งานที่มากขึ้นเสมอ
  • ขณะนี้สมการ โมเดลพัฒนา = การใช้งานพุ่ง = ต้นทุนเพิ่ม กำลังก่อตัวอย่างชัดเจน และสุดท้ายธุรกิจ AI ที่ยั่งยืนต้องเปลี่ยนไปสู่โครงสร้างใหม่ผ่านการคิดค่าบริการตามการใช้งาน, สัญญากับองค์กรขนาดใหญ่ และการบูรณาการแนวดิ่ง
    • หากต้องการให้ธุรกิจอยู่รอด ก็จำเป็นต้องมีแนวทางเชิงโครงสร้างใหม่อย่าง กลยุทธ์ 'Neocloud'

ยังไม่มีความคิดเห็น

ยังไม่มีความคิดเห็น