GPT-5.2 และ GPT-5.2-Codex เร็วขึ้น 40% แล้วตอนนี้
(twitter.com/OpenAIDevs)- ความเร็วในการประมวลผลของโมเดล GPT-5.2 และ GPT-5.2-Codex เพิ่มขึ้น 40% เมื่อเทียบกับเดิม
- ปรับแต่งสแตกการอนุมานให้เหมาะสมสำหรับผู้ใช้ API ทุกคน
- เป็นโมเดลเดิมและค่าน้ำหนักเดิม แต่ได้เวลาแฝงที่ต่ำลง
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
ในช่วงเดือนที่ผ่านมา OpenAI ได้เปิดตัวฟีเจอร์หลายอย่างสำหรับผู้ใช้ Codex
แค่สองฟีเจอร์แรกก็รู้สึกว่าประสิทธิภาพการทำงานเพิ่มขึ้น 3 เท่าแล้ว รออัปเดตครั้งนี้มากจริงๆ
ตลอดช่วงสุดสัปดาห์ได้ลองรันพรอมป์เดียวกันบนGPT-5.2, Gemini 3, Grok
Gemini 3 กับ Grok ใน ‘thinking mode’ เสร็จภายใน 2 นาที แต่ GPT-5.2 กลับวนอยู่ที่เดิมนาน 6 นาที
เมื่อไม่นานมานี้มีคนสังเกตว่า roon พบว่าบัญชีพนักงานเร็วกว่าบัญชีผู้ใช้ทั่วไปมาก
เลยตระหนักได้ว่าฝั่งภายในสามารถรันการเรียก API แบบมีประสิทธิภาพกว่าผู้ใช้ทั่วไป
สุดท้ายผู้ใช้ทั่วไปก็เหมือนถูกประมวลผลจากทรัพยากรที่เหลืออยู่เท่านั้น
บทความที่เกี่ยวข้อง: Choose Your Fighter (The Zvi)
ผมคิดว่า OpenAI มีนิสัยลดคุณภาพลงโดยตั้งใจหลังจากปล่อยโมเดลออกมา
เวอร์ชันเว็บของ ChatGPT 5.2 ตอนแรกดีกว่านี้มาก แต่พอผ่านไป 1~2 สัปดาห์คุณภาพก็ตกลงอย่างกะทันหัน
มันดูเหมือนกลยุทธ์เพื่อหลอกสื่อและเบนช์มาร์ก
ถ้าจะเพิ่มความเร็วก็แค่ลดความเข้มข้นของการให้เหตุผลลงก็ได้ เลยเชื่อคำว่าเร็วขึ้น 40% ได้ยาก
อาจเป็น ‘ลูกเล่น’ แบบให้ผู้ใช้ ChatGPT Plus ได้โมเดล Pro ในช่วงแรก แล้วค่อยเปลี่ยนเป็น Standard ในภายหลังก็ได้
เรารักษาคุณภาพของโมเดลให้คงที่ และถ้ามีรายงานเรื่องประสิทธิภาพลดลงก็จะตรวจสอบทันที
การเพิ่มความเร็วครั้งนี้มาจากการปรับปรุงเวลาในการประมวลผลต่อโทเคน โดยคุณภาพหรือค่าน้ำหนักของโมเดลยังเหมือนเดิม
ดูได้ที่: Claude Code Tracker (MarginLab)
จุดที่น่าสนใจคือ แม้ว่าต้นทุนการให้เหตุผลบน Cerebras จะแพงกว่ามาก แต่ราคายังถูกคงไว้เท่าเดิม
ถ้าเป็น Cerebras จริง พฤติกรรมของโมเดลน่าจะเปลี่ยนไปและความเร็วก็คงเพิ่มขึ้นราว 10 เท่า
น่าจะเป็นการเขียนoptimized kernel สำหรับซีรีส์ Blackwellขึ้นมาใหม่มากกว่า
ความเร็วเป็นข้อบ่นใหญ่ที่สุดมาตลอด แต่พอมีการปรับปรุงครั้งนี้ก็ทำให้อยากกลับไปใช้อีกครั้ง
อยากรู้ว่าพวกเขาทำให้เร็วขึ้นได้อย่างไร
ใน Reddit ก็มีโพสต์จำนวนมากว่าคุณภาพลดลง
ในซับเรดดิตเกี่ยวกับ Claude ก็เหมือนกัน และแทบไม่มีหลักฐานที่น่าเชื่อถือเลย