최근 r/codex에 흥미로운 글이 올라왔습니다. 댓글에서 나온 해결 방법은 config 설정을 직접 추가하는 것입니다. 예시: model_context_window=800000 이를 config.toml에 추가하면 약 800K 수준까지 컨텍스트를 확장해서 사용 가능하다는 경험 공유가 있었습니다. 몇 가지 포인트: 또한 사용자들은 최대치에 너무 가깝게 설정하면 성능 저하가 있을 수 있어 여유를 두는 것이 좋다는 의견도 남겼습니다. ⸻ 개인적으로 흥미로웠던 점 AI 도구들이 점점 복잡해지면서 특히 agentic coding / Codex 같은 환경에서는 설정을 직접 건드려야 성능을 제대로 끌어낼 수 있는 경우가 꽤 있는 듯합니다. 혹시 Codex나 CLI에서 long context (500K~1M) 실제로 활용해보신 분 계신가요?
한 사용자가 ChatGPT Pro + Codex에서 GPT-5.4를 사용 중인데 컨텍스트가 258K만 나온다는 질문을 올렸습니다.
“GPT-5.4는 1M 컨텍스트라고 들었는데 왜 258K만 나오나요?” 
실제로 Codex CLI나 IDE에서 확인하면 기본 컨텍스트가 약 258K로 표시되는 경우가 있습니다.
model_auto_compact_token_limit=700000
• GPT-5.4는 최대 약 1M 토큰 컨텍스트를 지원하는 것으로 알려짐 
• 하지만 Codex 환경에서는 기본 설정이 258K 정도로 제한된 상태로 시작되는 경우가 있음
• config 값을 수정하면 더 큰 컨텍스트 사용 가능
“모델 스펙 = 실제 기본 설정”이 아닌 경우가 많아지는 것 같습니다.
실제 개발 workflow에서 체감이 큰지도 궁금합니다.

2 weeks ago
9







English (US) ·