18 คะแนน โดย princox 2026-03-10 | 7 ความคิดเห็น | แชร์ทาง WhatsApp

ไม่นานมานี้มีโพสต์ที่น่าสนใจบน r/codex
ผู้ใช้คนหนึ่งโพสต์ถามว่า ระหว่างใช้ GPT-5.4 บน ChatGPT Pro + Codex ทำไมคอนเท็กซ์ถึงแสดงแค่ 258K
“ได้ยินมาว่า GPT-5.4 มีคอนเท็กซ์ 1M แล้วทำไมถึงขึ้นแค่ 258K?”
เมื่อตรวจสอบใน Codex CLI หรือ IDE จริง ๆ ก็พบว่าบางกรณีคอนเท็กซ์เริ่มต้นจะแสดงอยู่ราว 258K

วิธีแก้ที่มีคนแนะนำในคอมเมนต์คือเพิ่มค่าการตั้งค่าใน config โดยตรง

ตัวอย่าง:

model_context_window=800000
model_auto_compact_token_limit=700000

หากเพิ่มค่านี้ลงใน config.toml ก็มีการแชร์ประสบการณ์ว่าสามารถขยายคอนเท็กซ์ไปใช้ได้ถึงระดับประมาณ 800K

ประเด็นสำคัญบางข้อ:
• เป็นที่เข้าใจกันว่า GPT-5.4 รองรับคอนเท็กซ์ได้สูงสุดราว 1M โทเค็น
• แต่ในสภาพแวดล้อมของ Codex บางครั้งค่าตั้งต้นจะเริ่มมาด้วยการจำกัดไว้ที่ประมาณ 258K
• หากปรับค่า config ก็จะสามารถใช้คอนเท็กซ์ที่ใหญ่ขึ้นได้

นอกจากนี้ยังมีความเห็นจากผู้ใช้ว่าหากตั้งค่าเข้าใกล้ค่าสูงสุดมากเกินไป อาจทำให้ประสิทธิภาพลดลงได้ จึงควรเผื่อระยะไว้บ้าง

สิ่งที่ผมรู้สึกว่าน่าสนใจเป็นการส่วนตัว

เมื่อเครื่องมือ AI ซับซ้อนขึ้นเรื่อย ๆ
ก็ดูเหมือนว่า “สเปกของโมเดล = ค่าตั้งต้นที่ใช้งานจริง” จะไม่ใช่เรื่องเดียวกันเสมอไป

โดยเฉพาะในสภาพแวดล้อมอย่าง agentic coding / Codex ดูเหมือนว่าจะมีหลายกรณีที่ต้องเข้าไปปรับค่าด้วยตัวเอง จึงจะดึงประสิทธิภาพออกมาได้เต็มที่

มีใครเคยลองใช้ long context (500K~1M) บน Codex หรือ CLI จริง ๆ บ้างไหม?
อยากรู้เหมือนกันว่าใน workflow การพัฒนาจริงจะรู้สึกถึงความต่างมากแค่ไหน

7 ความคิดเห็น

 
gmlwo530 15 일 전

เมื่อใช้ model_context_window=800000 จะมีปัญหาที่ตั้งแต่จุดที่ใช้ context ไป 50% คำตอบของคำถามจะเริ่มกลายเป็นการตอบคำถามก่อนหน้าแทน โปรดทราบไว้ด้วยครับ

 
ujinyang 2026-03-10

ได้ยินมาว่าถ้าเพิ่มเกินตัวเลขนั้น ราคาต่อโทเคนจะเพิ่มเป็นสองเท่า ดังนั้นควรตรวจสอบให้ดีก่อนครับ

 
apkas 2026-03-10

ผมลองใช้แล้ว โดยตัว gpt-5.4 เองในแง่ประสิทธิภาพก็พอใจมาก แต่บางครั้งมันก็สร้างคำตอบให้กับข้อความก่อนหน้านั้นแทนที่จะเป็นข้อความล่าสุด เลยยังไม่ค่อยเสถียรนัก และก็มีรายงานด้วยว่าถ้าใช้ long context ประสิทธิภาพในงาน needle in the haystack จะตกลงไปต่ำกว่า 50% เลย เลยไม่ค่อยอยากแนะนำเท่าไรครับ แต่ก็ไม่แน่ใจเหมือนกันว่างาน needle in the haystack เองเหมาะจะเป็น benchmark สำหรับวัดประสิทธิภาพ long-context หรือเปล่า อย่างไรก็ดี Codex ใช้เวลา compaction ไม่นาน แล้วหลัง compact ก็ไม่ค่อยลืมบริบทด้วย เลยรู้สึกว่าใช้แบบปกติก็ไม่ได้ลำบากอะไรมากครับ

 
sea715 2026-03-10

ถ้ามีฮาร์เนสที่เหมาะสม ก็ดูเหมือนว่าจะไม่ได้แย่อะไรนักครับ เพราะตัว compaction เองน้อยลง ปัญหาการสูญหายระหว่างทางก็เลยลดลงไปด้วย..

 
mwma91 2026-03-13

ไม่รู้มาก่อนเลยว่าสามารถใช้คอนเท็กซ์ 1M ได้ด้วย

 
princox 2026-03-10

ผมยืนยันแล้วว่าสามารถใช้ได้เหมือนกันกับแอป codex สำหรับ macOS

 
click 2026-03-10

อา.. ว่าแล้วเชียว ผมเองก็รู้สึกว่า context window มันเล็กเกินไป ต้องไปตั้งค่าแยกเองนี่เองนะ