GoForum🌐 V2EX

codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

yuan321 · 2026-04-25 09:50 · 0 次点赞 · 6 条回复

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

6 条回复
beimenjun · 2026-04-25 10:00
#1

关键 5.4 模型你强行调出 1M ,使用起来因为命中率不高,其实表现也就那样。

yuan321 · 2026-04-25 10:05
#2

上下文确实和 claude code 有比较大的差距

sampeng · 2026-04-25 10:05
#3

codex 的 compact 我觉得比 cc 的聪明

neteroster · 2026-04-25 10:15
#4
  1. codex 的 5.5 没有 1M ,API 才有,大概率成本考量。Tibo ( OpenAI Codex 负责人) X 上说后续会提高上下文。
  2. codex 的 compact 很强
xubeiyou · 2026-04-25 10:25
#5

他这个不是 pro 用不起啊 一下子 就没了。。。。

lihanst · 2026-04-25 10:36
#6

5.4 的 1m 上下文性能退化严重

添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: yuan321
发布: 2026-04-25
点赞: 0
回复: 0