codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文? - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
yuan321
V2EX    Codex

codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

  •  
  •   yuan321 1 天前 2164 次点击
    只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
    24 条回复    2026-04-25 23:33:06 +08:00
    beimenjun
        1
    beimenjun  
    PRO
       1 天前 via iPhone
    关键 5.4 模型你强行调出 1M ,使用起来因为命中率不高,其实表现也就那样。
    yuan321
        2
    yuan321  
    OP
       1 天前
    上下文确实和 claude code 有比较大的差距
    sampeng
        3
    sampeng  
       1 天前 via iPhone
    codex 的 compact 我觉得比 cc 的聪明
    neteroster
        4
    neteroster  
       1 天前
    1. codex 的 5.5 没有 1M ,API 才有,大概率成本考量。Tibo ( OpenAI Codex 负责人) X 上说后续会提高上下文。
    2. codex 的 compact 很强
    xubeiyou
        5
    xubeiyou  
       1 天前
    他这个不是 pro 用不起啊 一下子 就没了。。。。
    lihanst
        6
    lihanst  
       1 天前
    5.4 的 1m 上下文性能退化严重
    salor
        7
    salor  
       1 天前
    1m 上下文有什么用呢,600k 上下文就已经分不清计划模式了,让执行上面的方案一个劲的重复方案就是不执行,复现很多次了。通常超过 400k 上下文就要开新对话了,不然生成的内容真信不过。
    yuan321
        8
    yuan321  
    OP
       1 天前
    一般 compact 几次需要从开对话?
    zisen
        9
    zisen  
       1 天前
    codex 里面的 5.5 是 400k ,api 调用是 1M
    yuan321
        10
    yuan321  
    OP
       1 天前
    @zisen 我设置为 400k ,codex 说本地实际只有 256k ,并不能达到 400k
    lifeintools
        11
    lifeintools  
       1 天前
    还真没注意到这个事。我以为默认就是 1M
    billytom
        12
    billytom  
       1 天前
    请教下 codex 的 compact 需要像 cc 那样自己感觉长了就/compact 一下还是说 codex 它到了聊天 context 顶会自动压缩的?
    AEDaydreamer
        13
    AEDaydreamer  
       1 天前
    1.compact 非常好用
    2.但是这个上下文确实小了,不免让人不放心
    总体就是长 thread 用起来心理上很纠结但是生成的内容貌似还能接受.
    zisen
        14
    zisen  
       23 小时 26 分钟前
    @yuan321 好吧,我看 openai blog 写的 In Codex, GPT5.5 is available for Plus, Pro, Business, Enterprise, Edu, and Go plans with a 400K context window. GPT5.5 is also available in Fast mode, generating tokens 1.5x faster for 2.5x the cost.

    https://openai.com/index/introducing-gpt-5-5/
    yuan321
        15
    yuan321  
    OP
       22 小时 34 分钟前
    @zisen 实际最大还是 256 ,设置 400 并不会生效。128k 是输出的大小
    winglight2016
        16
    winglight2016  
       20 小时 28 分钟前
    官网上有标明不同订阅等级,不同模型,context 大小是不一样的,plus 的 5.5 标明了是 256k 。

    另外,5.5 似乎非常贵,我刚充了 40 刀 1000credits ,问了两次居然就用完了,好像碰到诈骗了一样。
    yuan321
        17
    yuan321  
    OP
       19 小时 14 分钟前
    @winglight2016 你为啥不用订阅。。。
    nash
        18
    nash  
       19 小时 7 分钟前
    5.5 特么跟纳智捷一样,用不起
    iyaozhen
        19
    iyaozhen  
       18 小时 13 分钟前
    @billytom 自动的。codex 的压缩效果独一档
    winglight2016
        20
    winglight2016  
       17 小时 29 分钟前
    @yuan321 你的额度用不完的吗?
    chenluo0429
        21
    chenluo0429  
       17 小时 15 分钟前 via Android
    @winglight2016 5.5 就只有 258K ,pro 也是。另外 plus 充 40 你不如直接升到 pro 5x 了
    yuan321
        22
    yuan321  
    OP
       16 小时 36 分钟前
    @winglight2016 pro 100 刀的根本用不完
    billytom
        23
    billytom  
       16 小时 5 分钟前
    @iyaozhen 是,我用 codex 的时候也发现了,明明那个 context 的圈圈快转完了,我用 cc 的时候习惯手动/compact ,这边 codex 有次忘了,然后它突然从 0 来过,但记忆还在,就有点莫名其妙和震惊,你知道的,用 vibe code 久的人,最怕就是 context 满了,特别是 cc ,这种情况没两下就额度满了,烧 token 烧的
    billytom
        24
    billytom  
       16 小时 5 分钟前
    @yuan321 100 刀的 chatgpt pro 订阅就已经很好用了,个人开发基本是用不完的 ,再加上奥特曼动不动就重置流量,真的爽
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2729 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 53ms UTC 07:38 PVG 15:38 LAX 00:38 JFK 03:38
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86