5 คะแนน โดย darjeeling 2026-01-23 | 1 ความคิดเห็น | แชร์ทาง WhatsApp

สรุป:

  • สตาร์ทอัป 'Inferact' ที่ก่อตั้งโดยผู้สร้าง vLLM ซึ่งเป็นโอเพนซอร์ส LLM inference engine ระดมทุนรอบ Seed ได้ 150 ล้านดอลลาร์สหรัฐ (ราว 2.1 แสนล้านวอน) พร้อมได้รับการประเมินมูลค่าบริษัทที่ 800 ล้านดอลลาร์
  • การลงทุนรอบนี้นำโดย a16z และ Lightspeed โดยเงินทุนที่ได้จะถูกนำไปใช้สร้างและขยายการทำตลาดแพลตฟอร์ม AI inference ระดับองค์กรที่พัฒนาบนพื้นฐานของ vLLM
  • Inferact มีเป้าหมายในการมอบโครงสร้างพื้นฐานด้าน inference ที่มีประสิทธิภาพสูงและต้นทุนต่ำ เพื่อช่วยให้องค์กรสามารถปรับใช้และดำเนินงาน large language model (LLM) ได้อย่างมีประสิทธิภาพในสภาพแวดล้อมฮาร์ดแวร์ที่หลากหลาย

สรุปรายละเอียด:
การระดมทุนรอบ Seed ขนาดใหญ่ครั้งนี้ของ Inferact แสดงให้เห็นว่าโครงสร้างพื้นฐาน AI โดยเฉพาะขั้นตอน 'inference' กำลังเป็นโจทย์สำคัญที่สุดข้อหนึ่งของตลาด AI ในปัจจุบัน

  1. ความสัมพันธ์ระหว่าง Inferact กับ vLLM

    • Inferact คือบริษัทที่ก่อตั้งโดยผู้สร้างหลักของโครงการ vLLM ซึ่งปัจจุบันเป็นหนึ่งในโอเพนซอร์ส LLM serving engine ที่ถูกใช้งานแพร่หลายที่สุด โดยมี Simon Mo ซีอีโอเป็นผู้นำ
    • vLLM ใช้อัลกอริทึม 'PagedAttention' เพื่อแก้ปัญหาคอขวดด้านหน่วยความจำ และให้ throughput สูงกว่าโซลูชันเดิม จนกลายเป็นมาตรฐานโดยพฤตินัย (De facto standard) ในหมู่นักพัฒนา
  2. ขนาดเงินลงทุนและเบื้องหลัง

    • 150 ล้านดอลลาร์ (Seed Round): เป็นขนาดที่ผิดปกติอย่างมากเมื่อเทียบกับรอบ Seed ทั่วไป สะท้อนความต้องการของตลาดที่พุ่งสูงต่อการลดต้นทุน AI inference และการเพิ่มประสิทธิภาพ
    • มูลค่าบริษัท 800 ล้านดอลลาร์: แม้ยังอยู่ก่อนช่วงที่ผลิตภัณฑ์จะถูกทำตลาดเชิงพาณิชย์อย่างเต็มรูปแบบ แต่ก็ได้รับการประเมินสูงจากอิทธิพลเดิมของ vLLM และปราการทางเทคนิค (Moat)
    • นักลงทุนหลัก: Andreessen Horowitz (a16z) และ Lightspeed Venture Partners ซึ่งเป็นบริษัทร่วมลงทุนชั้นนำของซิลิคอนแวลลีย์ เป็นผู้นำการลงทุนในรอบนี้
  3. เป้าหมายทางเทคนิคและโรดแมป

    • การทำเชิงพาณิชย์ระดับองค์กร: สร้างแพลตฟอร์มเชิงพาณิชย์บนพื้นฐานของ vLLM แบบโอเพนซอร์ส โดยรวมบริการแบบ managed service ความปลอดภัย และการสนับสนุนทางเทคนิคที่เหมาะกับสภาพแวดล้อมองค์กร
    • การขยายความเข้ากันได้ของฮาร์ดแวร์: มีแผนขยายการรองรับเพื่อให้ทำงานได้อย่างมีประสิทธิภาพสูงสุดไม่เฉพาะบน NVIDIA GPU เท่านั้น แต่รวมถึงตัวเร่งฮาร์ดแวร์หลากหลายประเภท เช่น AMD และ AWS Inferentia
    • การเพิ่มประสิทธิภาพต้นทุน inference: เช่นเดียวกับกรณีของบริษัทอย่าง Stripe ที่ลดต้นทุน inference ได้มากกว่า 70% ผ่านเฟรมเวิร์กที่คล้ายกับ vLLM ทาง Inferact ตั้งเป้าช่วยให้องค์กรให้บริการ LLM ได้ในต้นทุนที่ต่ำลงและรวดเร็วยิ่งขึ้น
  4. ผลกระทบต่อระบบนิเวศนักพัฒนา

    • ความยั่งยืนของโครงการโอเพนซอร์ส vLLM จะได้รับการเสริมความมั่นคง และในขณะเดียวกันองค์กรที่ต้องการฟีเจอร์สำหรับใช้งานระดับธุรกิจก็จะมีตัวเลือกแบบเสียเงินที่ชัดเจนมากขึ้น
    • คาดว่าจะช่วยทำให้กระบวนการเพิ่มประสิทธิภาพโมเดลที่ซับซ้อนถูกทำให้เป็นนามธรรมมากขึ้น เพื่อให้วิศวกร ML สามารถโฟกัสกับการพัฒนาแอปพลิเคชันบนโมเดลได้มากกว่าการดูแลโครงสร้างพื้นฐาน

1 ความคิดเห็น

 
darjeeling 2026-01-23

การที่ vLLM ระดมทุนได้ 150 ล้านดอลลาร์เป็นการยืนยันว่า เราได้ก้าวจากยุคของ "throughput" ไปสู่ยุคของ "latency (cold start)" แล้ว

https://reddit.com/r/LocalLLaMA/…