โอเพนเวตกำลังค่อยๆ ปิดตัวลงเงียบๆ และนั่นคือปัญหา
(martinalderson.com)- โมเดล โอเพนเวต ช่วยให้ทุกคนสามารถรัน LLM ได้โดยตรงบนฮาร์ดแวร์ของตนเอง จึงช่วยปกป้องข้อมูลอ่อนไหว เพิ่มความยืดหยุ่นในการทำฟाइनจูนและควอนไทซ์ และมีต้นทุนการอนุมานต่ำกว่าเมื่อเทียบกับโมเดลฟรอนเทียร์
- โมเดลจากสถาบันวิจัยจีนอย่าง MiniMax, Z.ai, DeepSeek และ Qwen ถูกยกให้เป็นโมเดลโอเพนเวตชั้นนำ ขณะที่ Gemma ของ Google และ
gpt-ossของ OpenAI โดยทั่วไปถูกประเมินว่าอยู่ตามหลัง - โมเดลโอเพนเวตสร้าง แรงกดดันให้ราคาลดลง ต่อห้องแล็บฟรอนเทียร์อย่าง OpenAI, Anthropic และ Google โดยความเป็นไปได้ที่ผู้ใช้จะย้ายไปใช้ทางเลือกที่ถูกกว่าช่วยยับยั้งพฤติกรรมการตั้งราคาแบบผู้ขายน้อยราย
- ช่วงหลัง Meta หยุดเปิดเผยโมเดลใน “Muse Spark” รุ่นล่าสุด, Alibaba เพิ่มการเปิดตัวแบบ API-first หรือ API-only และ Kimi K2.6 กับ Mistral ก็สะท้อนแนวโน้มการใช้ เงื่อนไขไลเซนส์ ที่เข้มงวดขึ้น
- หากระบบนิเวศโอเพนเวตที่มีการแข่งขันอ่อนแอลง ห้องแล็บฟรอนเทียร์ไม่กี่แห่งและสถาบันวิจัยจีนบางรายอาจดูดซับ ส่วนเกินผู้บริโภค จากผู้ใช้ AI ได้มากขึ้น และการกลั่นแบบ distillation ก็ยากจะเป็นทางออกพื้นฐาน เพราะยังต้องอาศัยการเข้าถึงโมเดลฐานที่ทรงพลัง
บทบาทของโมเดลโอเพนเวต
- ในตลาด LLM มีทั้งโมเดลปิดและโมเดล โอเพนเวต(open weights) อยู่ร่วมกันมาโดยตลอด
- โมเดลปิดนั้น แม้ชื่อจะสื่ออีกอย่าง แต่ก็รวมโมเดลเกือบทั้งหมดของ OpenAI ไว้ด้วย
- โมเดลโอเพนเวตถูกเปิดเผยโดยห้องแล็บอื่นๆ และซีรีส์ Llama เคยเป็นตัวแทนสำคัญ
- ระยะหลัง โมเดลจากสถาบันวิจัยจีนอย่าง MiniMax, Z.ai, DeepSeek และ Qwen (Alibaba) ถูกจัดว่าเป็นโมเดลโอเพนเวตชั้นนำ
- ซีรีส์ Gemma ของ Google และโมเดล
gpt-ossของ OpenAI โดยทั่วไปถูกมองว่าอยู่หลังโมเดลจีนเหล่านั้น
- โมเดลโอเพนเวตทำให้ใครก็ได้สามารถ รันได้โดยตรง บนฮาร์ดแวร์ของตนเอง
- เดิมทีโมเดลที่มีคุณค่าพอจะใช้งานได้จริงมักต้องการฮาร์ดแวร์ที่ทรงพลังมาก
- แต่เงื่อนไขนี้กำลังเปลี่ยนไปอย่างรวดเร็ว เพราะโมเดลขนาดเล็กเริ่มมีประโยชน์มากขึ้นมาก
- การรันแบบโลคอลมีข้อดี 3 ประการเมื่อเทียบกับการส่งคำขอผ่าน API ไปยังผู้ให้บริการอย่าง OpenAI, Anthropic หรือ Google
- หากไม่สะดวกหรือเป็นไปไม่ได้ที่จะส่งข้อมูลอ่อนไหวไปยังดาต้าเซ็นเตอร์ของห้องแล็บฟรอนเทียร์ การรันแบบ on-premise ช่วยให้ข้อมูลไม่ออกไปนอกเครือข่าย
- สามารถใช้โมเดลในรูปแบบที่อิงการฟाइनจูน หรือทำ quantization (การบีบอัดโดยคร่าว) ให้เหมาะกับเงื่อนไขฮาร์ดแวร์เฉพาะได้ จึงมีความยืดหยุ่นมากขึ้น
- หากใช้ฮาร์ดแวร์ของตนเอง ก็ต้องคำนึงเพียงค่าใช้จ่ายด้านทุนฮาร์ดแวร์ ค่าไฟ และต้นทุนการดำเนินงาน และแม้ใช้ผู้ให้บริการโฮสต์ ต้นทุนต่อโทเคนก็มักต่ำกว่า 10% ของโมเดลฟรอนเทียร์
แรงกดดันด้านราคาและวินัยของตลาด
- โมเดลโอเพนเวตสร้าง แรงกดดันให้ราคาลดลง อย่างมีนัยสำคัญต่อห้องแล็บฟรอนเทียร์
- เรื่องนี้คล้ายอย่างหลวมๆ กับทฤษฎี contestable markets ที่ว่า แม้ในตลาดผูกขาดหรือผู้ขายน้อยราย หากมีทางเลือกที่ถูกและเชื่อถือได้ ผู้เล่นเดิมก็จะต้องทำตัวอย่างแข่งขัน
- ตามทฤษฎีอย่างเคร่งครัด มีสมมติฐานว่าต้นทุนจมแทบเป็นศูนย์ แต่การฝึกโมเดลฟรอนเทียร์จริงๆ แล้วแทบตรงกันข้าม
- ถึงอย่างนั้น กลไกหลักที่ว่าทางเลือกในการย้ายของผู้บริโภคช่วยกำกับราคา ก็ยังคงอยู่
- โมเดลฟรอนเทียร์สามารถตั้งราคาสูงกว่าได้ เพราะคุณภาพสูงกว่าและมีข้อได้เปรียบเชิงสัญญา
- ผู้ใช้ยอมจ่ายมากขึ้นมากเพื่อโมเดลที่ดีกว่าได้
- สัญญาการอนุมานกับบริษัทมูลค่าราว 1 ล้านล้านดอลลาร์ มีคุณค่าไม่เหมือนกับการใช้ OpenRouter เป็นผู้ให้บริการอนุมานราคาถูก
- OpenAI และรายอื่นๆ ยังให้คำมั่นที่มีผลผูกพันทางกฎหมายในเรื่องอย่าง SLA และการรักษาความลับ
- อย่างไรก็ตาม โมเดลโอเพนเวตยังทำหน้าที่เป็นแรงกดดันที่เพียงพอจะทำให้พฤติกรรมการตั้งราคาแบบผู้ขายน้อยรายทำได้ยากขึ้น
- หากห้องแล็บฟรอนเทียร์ขึ้นราคา 5 เท่าในชั่วข้ามคืน ผู้ใช้จำนวนมากก็อาจย้ายไปใช้โมเดลโอเพนเวตได้ โดยเฉพาะในกรณีใช้งานที่ไม่เข้มงวดมาก
- ในเชิงพฤติกรรมด้านราคา โมเดลโอเพนเวตมีบทบาทคล้ายยาสามัญ
- เมื่อมียาสามัญ บริษัทยารายใหญ่จะลดราคาให้ใกล้ราคายาสามัญมากขึ้น และหันไปเน้นยารุ่นใหม่ที่นำหน้ายาสามัญอยู่หนึ่งก้าวเพื่อรักษาราคาไว้
- หากไม่มีโมเดลโอเพนเวต อำนาจในการกำหนดราคา ของห้องแล็บฟรอนเทียร์อาจสูงกว่าปัจจุบันมาก
การเปลี่ยนแปลงด้านไลเซนส์และรูปแบบการเปิดเผย
- ความพร้อมใช้งานของโมเดลโอเพนเวตไม่ใช่สิ่งที่รับประกันไว้โดยอัตโนมัติ
- การฝึกโมเดลมีต้นทุนสูง และบริษัทที่สร้างโมเดลเหล่านี้ก็เป็นบริษัทเชิงพาณิชย์
- แม้จะมีความเป็นไปได้ว่าจะได้รับการอุดหนุนจากรัฐจีนมาก แต่ก็ไม่ใช่องค์กรการกุศล
- ช่วงหลังมีแนวโน้มชัดเจนว่า เงื่อนไขไลเซนส์ ของโมเดลโอเพนเวตกำลังเข้มงวดขึ้น
- Meta ยุติโอเพนเวตโดยสิ้นเชิงในโมเดล “Muse Spark” รุ่นล่าสุด และไม่เปิดเผยโมเดลเลย
- Alibaba เปิดตัวโมเดลแบบ API ก่อนมากขึ้นเรื่อยๆ หรือในบางรุ่นก็เปิดผ่าน API เท่านั้น
- ไลเซนส์ K2.6 ของ Kimi เพิ่มข้อกำหนดการแสดงที่มาว่า ผลิตภัณฑ์ที่มีผู้ใช้งานต่อเดือนเกิน 100 ล้านราย หรือมีรายได้ต่อเดือนเกิน 20 ล้านดอลลาร์ ต้องแสดง “Kimi K2.6” อย่างเด่นชัดบน UI
- Mistral จากฝรั่งเศสก็ใช้เงื่อนไขไลเซนส์หลากหลายแบบกับการใช้งานเชิงพาณิชย์
- ก็ยังมีข้อยกเว้น
- DeepSeek กลับเปลี่ยนไปในทิศทางที่ผ่อนปรนมากขึ้น
- แต่แนวโน้มโดยรวมคือไลเซนส์ที่ผ่อนปรนน้อยลง และ Meta กับ Alibaba ก็กำลังเคลื่อนไปในทิศทางหยุดเปิดเผยโมเดลบางส่วนหรือทั้งหมด
โครงสร้างตลาดที่อาจเกิดขึ้นจากการหดตัวของโอเพนเวต
- อีก 1 ปีข้างหน้า อาจเกิดสถานการณ์ที่โมเดลระดับสูงสุดส่วนใหญ่หรือทั้งหมด ซึ่งในอดีตคงถูกเปิดเผยเป็นโอเพนเวต จะไม่ถูกเปิดเผยอีกต่อไป
- ตอนนี้ยังเป็นสถานการณ์สมมติ
- การเปรียบเทียบราคาข้ามโมเดลอาจยังคงมีอยู่
- แต่ถ้าต้นทุนและความซับซ้อนในการฝึกยังเพิ่มขึ้นต่อเนื่อง ก็อาจเหลือผู้เล่นเพียงไม่กี่ราย
- โครงสร้างตลาดที่เป็นไปได้อาจแคบลงเหลือห้องแล็บฟรอนเทียร์ฝั่งตะวันตก 3 ราย และสถาบันวิจัยจีนบางแห่ง
- สถาบันวิจัยจีนอาจถูกรวมผ่านการ “ควบรวม” ที่ขับเคลื่อนโดยรัฐ จนกลายเป็น “ซูเปอร์แล็บ” ของจีนเพียงหนึ่งหรือสองแห่ง
- ในอุตสาหกรรมเชิงยุทธศาสตร์มีแบบอย่างการรวมเช่นนี้มากมาย
- จีนเคยใช้แนวทางนี้ในอุตสาหกรรมรถไฟ (CRRC), พลังงานนิวเคลียร์, สายการบิน และโทรคมนาคม
- ฝั่งตะวันตกเองก็ไม่ใช่ข้อยกเว้น เพราะหลังสงครามเย็นก็มีการรวมตัวของผู้รับเหมาหลักด้านกลาโหมเช่นกัน
- การเปลี่ยนแปลงเช่นนี้เปิดทางให้บริษัทเพียงไม่กี่แห่งดูดซับ ส่วนเกินผู้บริโภค ที่ AI สร้างขึ้นได้
- ผู้ใช้ AI ได้รับคุณค่ามากกว่าต้นทุนโทเคนอย่างมาก
- อาจมากพอที่พวกเขาจะยังยอมจ่ายแม้ราคาสูงขึ้น 10 เท่าจากปัจจุบัน
- ในงานเฉพาะทางที่มีมูลค่าสูงหรือภารกิจแบบเอเจนต์ ช่องว่างระหว่างจำนวนที่จ่ายจริงกับความเต็มใจจะจ่ายยิ่งกว้างขึ้น
- ผู้ขายน้อยรายที่ไม่มีเส้นล่างด้านราคาจากโอเพนเวต จะอยู่ในตำแหน่งที่สามารถดึงช่องว่างนี้ไปเป็นกำไรได้
- ในเชิงทฤษฎีเศรษฐศาสตร์ โลกแบบนี้อาจนำไปสู่การกระจุกตัวของอำนาจและความมั่งคั่งทางเศรษฐกิจในบริษัทเพียงไม่กี่แห่งอย่างไม่เคยมีมาก่อน
- ห้องแล็บอาจเริ่มดึงส่วนเกินผู้บริโภคออกมาเป็นมาร์จินโดยตรง
- ด้วยโครงสร้างผู้ขายน้อยรายของบริษัทไม่กี่แห่งและกำแพงการเข้าสู่ตลาดจากเงินลงทุนมหาศาลที่ต้องใช้สำหรับโมเดลใหม่ การแข่งขันด้านราคาจึงมีแนวโน้มถูกจำกัด
ความเป็นไปได้ในทางตรงข้ามและความเสี่ยงที่ยังเหลือ
- เป็นไปได้เช่นกันว่ามุมมองเชิงลบนี้อาจมองร้ายเกินไป
- หากฮาร์ดแวร์พัฒนาเร็วขึ้น การฝึกโมเดลที่ “ดีพอ” อาจกลับยิ่งง่ายขึ้นเมื่อเวลาผ่านไป
- แม้ผู้ผลิตฮาร์ดแวร์ AI จะมีอยู่ไม่กี่ราย แต่ตลาดฮาร์ดแวร์ AI ก็กำลังมีการแข่งขันดุเดือด
- Distillation ถูกมองว่าเป็นทางหนี แต่ไม่ใช่ทางออกระดับรากฐาน
- Distillation คือการฝึกโมเดลขนาดเล็กด้วยเอาต์พุตของโมเดลฟรอนเทียร์
- แต่จุดตั้งต้นคือยังต้องเข้าถึงโมเดลฐานที่ทรงพลังอยู่ดี
- และสิ่งที่กำลังตกอยู่ในความเสี่ยงก็คือการเข้าถึงโมเดลฐานที่ทรงพลังนี่เอง
- ระบบนิเวศโอเพนเวตที่มีการแข่งขันเคยเป็น สมมติฐานรับน้ำหนัก ที่ปูอยู่เงียบๆ ใต้เศรษฐกิจ AI ทั้งหมด
- ข้อเท็จจริงที่ว่าสมมติฐานนี้กำลังอ่อนตัวลง เป็นสิ่งที่ควรให้ความสนใจ
- นัยต่อเศรษฐกิจในวงกว้างนั้นใหญ่มาก
คำศัพท์และคำอธิบายเสริม
- โมเดล โอเพนเวต คือหมวดที่เปิดเผยเฉพาะตัวโมเดลสุดท้าย
- ในทางเทคนิคสามารถแบ่งได้เป็น 3 หมวด: โมเดลปิด, โมเดลโอเพนเวต และโมเดลเปิดเต็มรูปแบบหรือทำซ้ำได้
- โมเดลเปิดเต็มรูปแบบหรือทำซ้ำได้ จะรวมถึงข้อมูลฝึกและเอกสารขั้นตอนการฝึกที่เกี่ยวข้องด้วย
- หมวดนี้ใกล้เคียงกับสิ่งที่เรียกว่าโอเพนซอร์สในโลกซอฟต์แวร์มากที่สุด
- OpenRouter ทำหน้าที่เป็น “API ของหลาย API”
- มันจะส่งคำขอไปยังผู้ให้บริการอนุมานที่ถูกที่สุดหรือพร้อมใช้งานมากที่สุดสำหรับโมเดลที่กำหนด
- หากผู้ให้บริการรายหนึ่งมีปัญหา ก็สามารถสลับไปอีกรายได้ทันที ทำให้ความเชื่อถือได้สูงขึ้นมาก
- หากมีผู้ให้บริการที่ถูกกว่า ก็จะสลับไปใช้รายนั้น
1 ความคิดเห็น
ความคิดเห็นจาก Lobste.rs
บทความนี้คลาดเคลื่อนเกี่ยวกับ Kimi บางบริษัทชอบใส่ข้อจำกัดใหญ่ ๆ แล้วเรียกมันว่า “modified MIT” แต่ Kimi K2.6 just has an advertising clause เท่านั้นเอง ถ้าไม่มีคงดีกว่า แต่ก็ดูไม่ถึงขั้นเป็นปัญหาใหญ่เกินไป
ในบทความอ้างว่า Kimi ห้ามใช้โมเดล open weights กับผลิตภัณฑ์ที่มีผู้ใช้ต่อเดือนเกิน 100 ล้านคน หรือมีรายได้ต่อเดือนเกิน 20 ล้านดอลลาร์ แต่จริง ๆ แล้วไลเซนส์ของ K2.6 แค่กำหนดให้แสดงคำว่า “Kimi K2.6” อย่างเด่นชัดใน UI ของผลิตภัณฑ์หรือบริการดังกล่าว
เป็นความจริงที่บางบริษัทลดการปล่อย open weights ลง แต่ก็ยังมีที่อย่าง Xiaomi, DeepSeek, Moonshot และ Zai ที่ปล่อยโมเดล open weights ขนาดใหญ่ที่แข่งขันได้อยู่ ส่วนฝั่งโมเดลเล็ก การที่ Gemma 4 เปลี่ยนไปใช้ Apache ซึ่งเป็นไลเซนส์แบบเปิดมาตรฐานก็เป็นเรื่องน่ายินดี
การหยิบยกความกังวลนี้ขึ้นมาถือว่าเหมาะสม แต่ตอนนี้ดูเหมือนว่ายังเป็นแนวโน้มที่บริษัทซึ่งถอยห่างจาก open weights ถูกแทนที่ด้วยบริษัทที่เพิ่งเข้ามาใหม่หรือย้ายไปใช้ไลเซนส์แบบดั้งเดิมมากกว่า
น่าสนใจว่าต่อไปจะเป็นอย่างไร บทความยาวอยู่แล้วเลยไม่ได้ใส่เพิ่ม แต่ผมคิดว่าบริษัทเหล่านี้คงต้องพึ่งโมเดล open weights เพื่อให้คนหันมาสนใจจริง ๆ ดูจากกรณีอย่าง Grok ที่แม้จะมีทรัพยากรคอมพิวต์และตั้งราคาเชิงรุก ก็ยังมีการนำไปใช้น้อย อย่างน้อยก็คงยากมากที่จะสร้างการรับรู้ในระดับโลกถ้าไม่มีสิ่งนี้
อย่างไรก็ตาม โมเดลจีนก็ไม่ได้มีคอมพิวต์ฝั่ง inference มากเท่า xAI ตอนนี้คุณภาพโมเดลดีขึ้นจนแรงจูงใจในการปิดเริ่มมากขึ้นแล้ว แต่ก็อาจยังเป็นโลกที่มีผู้เล่นหน้าใหม่เข้ามาเรื่อย ๆ ก็ได้
ทำให้ผมต้องถามตัวเองว่าแรงจูงใจทางตลาดในการปล่อย โมเดลภาษาขนาดใหญ่ แบบ open weights คืออะไร
Nvidia on Hugging Face ก็ปล่อยบางโมเดลออกมา และดูเหมือนกำลังเดิมพันว่าถ้าคนรันโมเดลภาษาขนาดใหญ่แบบโลคัลแทนการใช้บริการสมัครสมาชิก ก็จะขายการ์ดจอได้มากขึ้น
ถ้าการปล่อยโมเดล open weights ลดลง ผู้ให้บริการ inference รายใหญ่อาจรวมตัวตั้ง มูลนิธิ open weights คล้าย Linux Foundation เพื่อประสานเรื่องการหา training data การฝึก และการทำ fine-tuning ก็ได้ ถ้าไม่มีโมเดลที่แข่งขันได้ให้บริการ ธุรกิจของบริษัทพวกนี้ก็คงตั้งอยู่ได้ยาก
ผมไม่รู้ว่าผู้ให้บริการ inference ตอนนี้จะถึงขั้นตั้งมูลนิธิ open weights หรือเปล่า แต่ถ้าโมเดลภาษาขนาดใหญ่ชนกำแพงในอีกไม่กี่ปีข้างหน้า ฝั่งลูกค้าน่าจะมีแรงจูงใจชัดเจนว่า “ทำไมเราต้องจ่ายให้ OpenAnthropic เดือนละ 5 พันล้านดอลลาร์ ทั้งที่สิ่งนี้เรา ทำเอง ได้?”
มีคอมเมนต์หลายอันที่โต้แย้งบางส่วนตรงนี้ แต่ผมอยากเสริมอีกเล็กน้อย
ชัดเจนว่า Alibaba ใช้แนวทางกับ Qwen ที่ ให้ความสำคัญกับความเปิดน้อยลง อยู่บ้าง ซึ่งน่าเสียดาย แต่ช่องว่างจริง ๆ ก็ไม่ได้ใหญ่ขนาดนั้น โมเดลตระกูล Max และโมเดลเฉพาะทางอีกหลายตัวก็เป็น API-only มาตั้งแต่แรกแล้ว และตอนนี้โมเดลสำคัญที่ยังเป็น API-only หลัก ๆ ก็มีแค่ “Plus” ราว 400B พารามิเตอร์เท่านั้น ซึ่งในเชิงประวัติศาสตร์ก็ไม่ใช่โมเดลที่ยอดเยี่ยมมากเมื่อเทียบกับขนาด
โมเดลขนาดเล็กที่คนส่วนใหญ่นึกถึงเมื่อพูดถึง Qwen ก็ยังเปิดเผยอยู่ การปล่อยออกมาอาจดูไม่เป็นจังหวะมากขึ้น แต่จริง ๆ แล้วการปล่อย Qwen แต่เดิมก็ค่อนข้างกระจัดกระจายอยู่แล้ว
Qwen 3.6 Plus ที่ถูกอ้างว่าเป็นโมเดลปิดนั้น เปิดให้ใช้ผ่านพันธมิตรแบบเอกสิทธิ์ที่ available on Fireworks ไม่แน่ใจว่าเขาพยายามเปิดทางให้องค์กรที่ต้องการเซิร์ฟเวอร์ที่ตนเป็นเจ้าของใช้งานได้ด้วยหรือไม่ แต่น่าสนใจว่ารูปแบบนี้จะมีมากขึ้นไหมในอนาคต
“Muse Spark” ของ Meta เป็นโมเดลคนละตระกูลกับ LLaMa แทบจะสมบูรณ์ และมาจากอีกทีมหนึ่งด้วย ดังนั้นจะมองว่า Meta “หยุด” ทำ open weights คงไม่ค่อยถูกนัก น่าจะถือเป็นผลิตภัณฑ์อีกตัวมากกว่า
ข้อกำหนดเรื่องการแสดงชื่อใน Kimi K2.6 ไม่ได้ “เพิ่มเข้ามาใหม่” แต่ the clause has been there since the original K2 แล้ว ส่วน DeepSeek ก็ใช้ไลเซนส์ MIT ปกติมาตั้งแต่ R1 และ V3 0324
ช่วงหลังก็ยังมีการปล่อย open weights จริงที่ได้รับความสนใจหลายตัว เช่น ตระกูล MiMo v2.5, GLM 5.1 และ Gemma 4 อย่างไรก็ตาม แม้สายหลักของ GLM จะเป็น open weights แต่เวอร์ชัน fine-tuned หลายตัวอย่างตระกูล “Code” ยังเป็นแบบปิด และอัปเดต 2603 ของ Step 3.5 Flash ก็ดูเหมือนจะเป็นแบบปิดเช่นกัน ถึงอย่างนั้นเขาก็ release their SFT training data ด้วย จึงจะตำหนิมากเกินไปก็คงไม่ยุติธรรม
บางครั้งก็มีกรณีปล่อยช้า เช่น MiMo v2.5/Pro และ GLM 5.1 แต่ข้อดีก็คือบางทีทำให้รองรับ SGLang/vLLM ได้ตั้งแต่หลังเปิดตัวไม่นาน ส่วน MiniMax M2.7 นั้นเปลี่ยนไปใช้ much more restrictive license จริง ๆ ซึ่งน่าจะเป็นตัวที่ถูกสับสนกับ Kimi
วิธีแบบ “หารายได้จาก API ก่อน แล้วค่อยปล่อยทีหลัง” เมื่อคำนึงว่าการพัฒนาโมเดลมีต้นทุนสูงมาก ก็ยังถือว่าใจกว้างอยู่พอสมควร และอย่างน้อยตอนนี้ก็ดูเหมือนทั้งอุตสาหกรรมจะพอใจกับจุดสมดุลนี้
GLM 5.1 เป็นโมเดล open weights ที่แข่งขันได้มากและถูกปล่อยภายใต้ไลเซนส์ MIT เมื่อเดือนที่แล้ว ตอนนี้มีหลายบริษัทนำไปให้บริการแล้ว สร้างโดย Z.ai และเหมือนบริษัทจีนอื่น ๆ ที่อาจจะใส่ข้อจำกัดเพิ่มทีหลัง แต่ตอนนี้ยังไม่มีข้อจำกัด
บางคนตั้งสมมติฐานว่าโมเดลจีนทั้งหมดน่าจะ “กลั่น” มาจากโมเดลใหญ่ต่าง ๆ อย่าง GPT หรือ Anthropic ไม่ทางใดก็ทางหนึ่ง ผมไม่รู้ว่าจริงไหมและไม่ได้ใส่ใจมากนัก ยังไงผมก็มองว่าโมเดลแบบนี้ควรอยู่ใน สาธารณสมบัติ และก็ดีใจที่ดูเหมือนเรากำลังไปถึงจุดนั้นอย่างรวดเร็ว
ช่วงนี้ผมคิดว่า ธุรกิจไลเซนส์โมเดล AI อาจได้รับความนิยมมากขึ้นหรือเปล่า คือจ่ายเงินก้อนหนึ่งเพื่อได้สิทธิ์ใช้โมเดล แล้วนำไปรันบนฮาร์ดแวร์ของตัวเอง คล้ายการตั้งราคาของ Photoshop อยู่บ้าง
แบบนี้ช่วยเลี่ยงปัญหาข้อมูลอ่อนไหวรั่วไหลได้ ในขณะที่ผู้สร้างโมเดลก็ยังได้เงิน อีกข้อดีคือเป็นราคาเหมาจ่าย ไม่ใช่ค่าบริการแบบคิดตามโทเค็นที่อาจแพงมากได้ แน่นอนว่าค่าฮาร์ดแวร์แยกต่างหาก
Kimi K2.5 ยังเป็นตัวที่เหมาะกับผมที่สุดจนถึงตอนนี้ และผมก็โอเคที่จะไม่อัปเกรด