4 คะแนน โดย GN⁺ 2026-02-05 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • ความเร็วในการประมวลผลของโมเดล GPT-5.2 และ GPT-5.2-Codex เพิ่มขึ้น 40% เมื่อเทียบกับเดิม
  • ปรับแต่งสแตกการอนุมานให้เหมาะสมสำหรับผู้ใช้ API ทุกคน
  • เป็นโมเดลเดิมและค่าน้ำหนักเดิม แต่ได้เวลาแฝงที่ต่ำลง

1 ความคิดเห็น

 
GN⁺ 2026-02-05
ความคิดเห็นจาก Hacker News
  • ในช่วงเดือนที่ผ่านมา OpenAI ได้เปิดตัวฟีเจอร์หลายอย่างสำหรับผู้ใช้ Codex

    • รองรับ subagents
    • ปรับปรุงอินเทอร์เฟซ multi-agent (แอป Codex)
    • ความเร็วในการให้เหตุผลเพิ่มขึ้น 40%
      แค่สองฟีเจอร์แรกก็รู้สึกว่าประสิทธิภาพการทำงานเพิ่มขึ้น 3 เท่าแล้ว รออัปเดตครั้งนี้มากจริงๆ
    • สงสัยว่า subagents ทำงานอย่างไร
    • นี่เป็นฟีเจอร์สำหรับ API เท่านั้น
    • ถ้าได้ลองใช้ Claude ประสิทธิภาพจะดีขึ้นระดับ x² เลย OpenAI ก็คงกำลังกังวลอยู่เหมือนกัน
  • ตลอดช่วงสุดสัปดาห์ได้ลองรันพรอมป์เดียวกันบนGPT-5.2, Gemini 3, Grok
    Gemini 3 กับ Grok ใน ‘thinking mode’ เสร็จภายใน 2 นาที แต่ GPT-5.2 กลับวนอยู่ที่เดิมนาน 6 นาที

  • เมื่อไม่นานมานี้มีคนสังเกตว่า roon พบว่าบัญชีพนักงานเร็วกว่าบัญชีผู้ใช้ทั่วไปมาก
    เลยตระหนักได้ว่าฝั่งภายในสามารถรันการเรียก API แบบมีประสิทธิภาพกว่าผู้ใช้ทั่วไป
    สุดท้ายผู้ใช้ทั่วไปก็เหมือนถูกประมวลผลจากทรัพยากรที่เหลืออยู่เท่านั้น
    บทความที่เกี่ยวข้อง: Choose Your Fighter (The Zvi)

  • ผมคิดว่า OpenAI มีนิสัยลดคุณภาพลงโดยตั้งใจหลังจากปล่อยโมเดลออกมา
    เวอร์ชันเว็บของ ChatGPT 5.2 ตอนแรกดีกว่านี้มาก แต่พอผ่านไป 1~2 สัปดาห์คุณภาพก็ตกลงอย่างกะทันหัน
    มันดูเหมือนกลยุทธ์เพื่อหลอกสื่อและเบนช์มาร์ก
    ถ้าจะเพิ่มความเร็วก็แค่ลดความเข้มข้นของการให้เหตุผลลงก็ได้ เลยเชื่อคำว่าเร็วขึ้น 40% ได้ยาก
    อาจเป็น ‘ลูกเล่น’ แบบให้ผู้ใช้ ChatGPT Plus ได้โมเดล Pro ในช่วงแรก แล้วค่อยเปลี่ยนเป็น Standard ในภายหลังก็ได้

    • เข้าใจมุมมองที่สงสัยนะ แต่เราไม่ได้ทำการหลอกลวงแบบนั้น
      เรารักษาคุณภาพของโมเดลให้คงที่ และถ้ามีรายงานเรื่องประสิทธิภาพลดลงก็จะตรวจสอบทันที
      การเพิ่มความเร็วครั้งนี้มาจากการปรับปรุงเวลาในการประมวลผลต่อโทเคน โดยคุณภาพหรือค่าน้ำหนักของโมเดลยังเหมือนเดิม
    • ไม่ใช่แค่ OpenAI เท่านั้น Anthropic ก็มีกรณีคล้ายกัน
      ดูได้ที่: Claude Code Tracker (MarginLab)
    • น่าจะมีเว็บไซต์เบนช์มาร์กรายวันสำหรับ Codex
    • ลองรันเบนช์มาร์กใหม่ด้วยตัวเองก็ได้
  • จุดที่น่าสนใจคือ แม้ว่าต้นทุนการให้เหตุผลบน Cerebras จะแพงกว่ามาก แต่ราคายังถูกคงไว้เท่าเดิม

    • แต่นี่อาจไม่ใช่ Cerebras
      ถ้าเป็น Cerebras จริง พฤติกรรมของโมเดลน่าจะเปลี่ยนไปและความเร็วก็คงเพิ่มขึ้นราว 10 เท่า
      น่าจะเป็นการเขียนoptimized kernel สำหรับซีรีส์ Blackwellขึ้นมาใหม่มากกว่า
    • แทบจะแน่ใจได้เลยว่าไม่ได้รันบน Cerebras
  • ความเร็วเป็นข้อบ่นใหญ่ที่สุดมาตลอด แต่พอมีการปรับปรุงครั้งนี้ก็ทำให้อยากกลับไปใช้อีกครั้ง

  • อยากรู้ว่าพวกเขาทำให้เร็วขึ้นได้อย่างไร

  • ใน Reddit ก็มีโพสต์จำนวนมากว่าคุณภาพลดลง

    • แต่ใน Reddit มีโพสต์แบบนั้นทุกวันอยู่แล้ว
      ในซับเรดดิตเกี่ยวกับ Claude ก็เหมือนกัน และแทบไม่มีหลักฐานที่น่าเชื่อถือเลย