GoForum › 🌐 V2EX
codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?
yuan321 ·
2026-04-25 09:50 ·
0 次点赞 · 6 条回复
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
6 条回复
neteroster · 2026-04-25 10:15
- codex 的 5.5 没有 1M ,API 才有,大概率成本考量。Tibo ( OpenAI Codex 负责人) X 上说后续会提高上下文。
- codex 的 compact 很强
添加回复
你还需要 登录
后发表回复
关键 5.4 模型你强行调出 1M ,使用起来因为命中率不高,其实表现也就那样。