
1 beimenjun PRO 1 天前 via iPhone 关键 5.4 模型你强行调出 1M ,使用起来因为命中率不高,其实表现也就那样。 |
2 yuan321 OP 上下文确实和 claude code 有比较大的差距 |
3 sampeng 1 天前 via iPhone codex 的 compact 我觉得比 cc 的聪明 |
4 neteroster 1 天前 1. codex 的 5.5 没有 1M ,API 才有,大概率成本考量。Tibo ( OpenAI Codex 负责人) X 上说后续会提高上下文。 2. codex 的 compact 很强 |
5 xubeiyou 1 天前 他这个不是 pro 用不起啊 一下子 就没了。。。。 |
6 lihanst 1 天前 5.4 的 1m 上下文性能退化严重 |
7 salor 1 天前 1m 上下文有什么用呢,600k 上下文就已经分不清计划模式了,让执行上面的方案一个劲的重复方案就是不执行,复现很多次了。通常超过 400k 上下文就要开新对话了,不然生成的内容真信不过。 |
8 yuan321 OP 一般 compact 几次需要从开对话? |
9 zisen 1 天前 codex 里面的 5.5 是 400k ,api 调用是 1M |
11 lifeintools 1 天前 还真没注意到这个事。我以为默认就是 1M |
12 billytom 1 天前 请教下 codex 的 compact 需要像 cc 那样自己感觉长了就/compact 一下还是说 codex 它到了聊天 context 顶会自动压缩的? |
13 AEDaydreamer 1 天前 1.compact 非常好用 2.但是这个上下文确实小了,不免让人不放心 总体就是长 thread 用起来心理上很纠结但是生成的内容貌似还能接受. |
14 zisen 23 小时 26 分钟前 @yuan321 好吧,我看 openai blog 写的 In Codex, GPT5.5 is available for Plus, Pro, Business, Enterprise, Edu, and Go plans with a 400K context window. GPT5.5 is also available in Fast mode, generating tokens 1.5x faster for 2.5x the cost. https://openai.com/index/introducing-gpt-5-5/ |
16 winglight2016 20 小时 28 分钟前 官网上有标明不同订阅等级,不同模型,context 大小是不一样的,plus 的 5.5 标明了是 256k 。 另外,5.5 似乎非常贵,我刚充了 40 刀 1000credits ,问了两次居然就用完了,好像碰到诈骗了一样。 |
17 yuan321 OP @winglight2016 你为啥不用订阅。。。 |
18 nash 19 小时 7 分钟前 5.5 特么跟纳智捷一样,用不起 |
20 winglight2016 17 小时 29 分钟前 @yuan321 你的额度用不完的吗? |
21 chenluo0429 17 小时 15 分钟前 via Android @winglight2016 5.5 就只有 258K ,pro 也是。另外 plus 充 40 你不如直接升到 pro 5x 了 |
22 yuan321 OP @winglight2016 pro 100 刀的根本用不完 |