18P by princox 31일전 | ★ favorite | 댓글 6개

최근 r/codex에 흥미로운 글이 올라왔습니다.
한 사용자가 ChatGPT Pro + Codex에서 GPT-5.4를 사용 중인데 컨텍스트가 258K만 나온다는 질문을 올렸습니다.
“GPT-5.4는 1M 컨텍스트라고 들었는데 왜 258K만 나오나요?” 
실제로 Codex CLI나 IDE에서 확인하면 기본 컨텍스트가 약 258K로 표시되는 경우가 있습니다.

댓글에서 나온 해결 방법은 config 설정을 직접 추가하는 것입니다.

예시:

model_context_window=800000
model_auto_compact_token_limit=700000

이를 config.toml에 추가하면 약 800K 수준까지 컨텍스트를 확장해서 사용 가능하다는 경험 공유가 있었습니다.

몇 가지 포인트:
• GPT-5.4는 최대 약 1M 토큰 컨텍스트를 지원하는 것으로 알려짐 
• 하지만 Codex 환경에서는 기본 설정이 258K 정도로 제한된 상태로 시작되는 경우가 있음
• config 값을 수정하면 더 큰 컨텍스트 사용 가능

또한 사용자들은 최대치에 너무 가깝게 설정하면 성능 저하가 있을 수 있어 여유를 두는 것이 좋다는 의견도 남겼습니다.

개인적으로 흥미로웠던 점

AI 도구들이 점점 복잡해지면서
“모델 스펙 = 실제 기본 설정”이 아닌 경우가 많아지는 것 같습니다.

특히 agentic coding / Codex 같은 환경에서는 설정을 직접 건드려야 성능을 제대로 끌어낼 수 있는 경우가 꽤 있는 듯합니다.

혹시 Codex나 CLI에서 long context (500K~1M) 실제로 활용해보신 분 계신가요?
실제 개발 workflow에서 체감이 큰지도 궁금합니다.

저 수치 이상으로 늘어나면 토큰 가격이 두배라고 하는데 확인하시는게 좋을겁니다.

사용해봤는데 gpt-5.4 자체가 성능은 너무 만족스럽지만 가끔 직전 메세지가 아니라 이전 메세지에 대한 대답을 생성하는 등 아주 안정적이진 않고 long context 쓰면 needle in the haystack task에서 성능이 50% 이하로 떨어진다는 리포트도 있어서 굳이 추천하진 않고싶습니다. 근데 needle in the haystack task 자체가 long-context 성능 측정에 적당한 벤치마큰지는 모르겠습니다. 여튼 Codex는 compaction 도 오래 안 걸리고 compact 이후에 맥락도 잘 안 까먹기도 해서 그냥 써도 큰 불편 없더라구요.

적절한 하네스가 있으면 그래도 나쁘지 않은것 같습니다. compaction 자체를 덜하니까 중간손실문제 자체도 줄어들어서..

1M 컨텍스트가 가능한지도 몰랐네요.

MacOS용 codex 앱에도 그대로 적용되는 것을 확인했습니다.

아.. 어쩐지 저도 context windows가 너무 작다고 생각했는데 따로 설정해줘야하는거였네요.