หากต้องการใช้คอนเท็กซ์ 1M ของ GPT-5.4 ใน ChatGPT Pro ให้ได้เต็มที่ ต้องตั้งค่าเพิ่มเติม
(reddit.com)ไม่นานมานี้มีโพสต์ที่น่าสนใจบน r/codex
ผู้ใช้คนหนึ่งโพสต์ถามว่า ระหว่างใช้ GPT-5.4 บน ChatGPT Pro + Codex ทำไมคอนเท็กซ์ถึงแสดงแค่ 258K
“ได้ยินมาว่า GPT-5.4 มีคอนเท็กซ์ 1M แล้วทำไมถึงขึ้นแค่ 258K?”
เมื่อตรวจสอบใน Codex CLI หรือ IDE จริง ๆ ก็พบว่าบางกรณีคอนเท็กซ์เริ่มต้นจะแสดงอยู่ราว 258K
วิธีแก้ที่มีคนแนะนำในคอมเมนต์คือเพิ่มค่าการตั้งค่าใน config โดยตรง
ตัวอย่าง:
model_context_window=800000
model_auto_compact_token_limit=700000
หากเพิ่มค่านี้ลงใน config.toml ก็มีการแชร์ประสบการณ์ว่าสามารถขยายคอนเท็กซ์ไปใช้ได้ถึงระดับประมาณ 800K
ประเด็นสำคัญบางข้อ:
• เป็นที่เข้าใจกันว่า GPT-5.4 รองรับคอนเท็กซ์ได้สูงสุดราว 1M โทเค็น
• แต่ในสภาพแวดล้อมของ Codex บางครั้งค่าตั้งต้นจะเริ่มมาด้วยการจำกัดไว้ที่ประมาณ 258K
• หากปรับค่า config ก็จะสามารถใช้คอนเท็กซ์ที่ใหญ่ขึ้นได้
นอกจากนี้ยังมีความเห็นจากผู้ใช้ว่าหากตั้งค่าเข้าใกล้ค่าสูงสุดมากเกินไป อาจทำให้ประสิทธิภาพลดลงได้ จึงควรเผื่อระยะไว้บ้าง
⸻
สิ่งที่ผมรู้สึกว่าน่าสนใจเป็นการส่วนตัว
เมื่อเครื่องมือ AI ซับซ้อนขึ้นเรื่อย ๆ
ก็ดูเหมือนว่า “สเปกของโมเดล = ค่าตั้งต้นที่ใช้งานจริง” จะไม่ใช่เรื่องเดียวกันเสมอไป
โดยเฉพาะในสภาพแวดล้อมอย่าง agentic coding / Codex ดูเหมือนว่าจะมีหลายกรณีที่ต้องเข้าไปปรับค่าด้วยตัวเอง จึงจะดึงประสิทธิภาพออกมาได้เต็มที่
มีใครเคยลองใช้ long context (500K~1M) บน Codex หรือ CLI จริง ๆ บ้างไหม?
อยากรู้เหมือนกันว่าใน workflow การพัฒนาจริงจะรู้สึกถึงความต่างมากแค่ไหน
7 ความคิดเห็น
เมื่อใช้
model_context_window=800000จะมีปัญหาที่ตั้งแต่จุดที่ใช้ context ไป 50% คำตอบของคำถามจะเริ่มกลายเป็นการตอบคำถามก่อนหน้าแทน โปรดทราบไว้ด้วยครับได้ยินมาว่าถ้าเพิ่มเกินตัวเลขนั้น ราคาต่อโทเคนจะเพิ่มเป็นสองเท่า ดังนั้นควรตรวจสอบให้ดีก่อนครับ
ผมลองใช้แล้ว โดยตัว
gpt-5.4เองในแง่ประสิทธิภาพก็พอใจมาก แต่บางครั้งมันก็สร้างคำตอบให้กับข้อความก่อนหน้านั้นแทนที่จะเป็นข้อความล่าสุด เลยยังไม่ค่อยเสถียรนัก และก็มีรายงานด้วยว่าถ้าใช้ long context ประสิทธิภาพในงาน needle in the haystack จะตกลงไปต่ำกว่า 50% เลย เลยไม่ค่อยอยากแนะนำเท่าไรครับ แต่ก็ไม่แน่ใจเหมือนกันว่างาน needle in the haystack เองเหมาะจะเป็น benchmark สำหรับวัดประสิทธิภาพ long-context หรือเปล่า อย่างไรก็ดี Codex ใช้เวลา compaction ไม่นาน แล้วหลัง compact ก็ไม่ค่อยลืมบริบทด้วย เลยรู้สึกว่าใช้แบบปกติก็ไม่ได้ลำบากอะไรมากครับถ้ามีฮาร์เนสที่เหมาะสม ก็ดูเหมือนว่าจะไม่ได้แย่อะไรนักครับ เพราะตัว compaction เองน้อยลง ปัญหาการสูญหายระหว่างทางก็เลยลดลงไปด้วย..
ไม่รู้มาก่อนเลยว่าสามารถใช้คอนเท็กซ์ 1M ได้ด้วย
ผมยืนยันแล้วว่าสามารถใช้ได้เหมือนกันกับแอป codex สำหรับ macOS
อา.. ว่าแล้วเชียว ผมเองก็รู้สึกว่า context window มันเล็กเกินไป ต้องไปตั้งค่าแยกเองนี่เองนะ