现在抢不到国产套餐的,可以看看 opencode,copilot - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要在回答技术问题时复制粘贴 AI 生成的内容
soulflysimple123

现在抢不到国产套餐的,可以看看 opencode,copilot

  •  
  •   soulflysimple123 9 天前 2847 次点击
    copilot 不多介绍了,想用 gpt,claude 的可以买
    现在 opencode 也搞了 go 套餐,模型有最新的 glm5.1,kimi 2.5,minimax2.7,小米啥的,支持支付宝,信用卡
    https://opencode.ai/docs/zh-cn/go/#usage-limits
    10 条回复    2026-04-15 08:26:46 +08:00
    cairnechen
        1
    cairnechen  
       9 天前
    longxinglink
        2
    longxinglink  
       9 天前
    可以注册 ollama ,有这些免费模型
    mistral-large-3:675b
    cogito-2.1:671b
    kimi-k2.5
    ministral-3:14b
    gemma3:12b
    glm-4.6
    glm-4.7
    qwen3-coder-next
    gpt-oss:20b
    minimax-m2
    gemma3:27b
    rnj-1:8b
    glm-5
    deepseek-v3.1:671b
    minimax-m2.7
    devstral-small-2:24b
    qwen3.5:397b
    nemotron-3-super
    kimi-k2:1t
    kimi-k2-thinking
    qwen3-coder:480b
    gemini-3-flash-preview
    gpt-oss:120b
    qwen3-vl:235b
    ministral-3:3b
    devstral-2:123b
    gemma3:4b
    deepseek-v3.2
    gemma4:31b
    qwen3-next:80b
    nemotron-3-nano:30b
    qwen3-vl:235b-instruct
    ministral-3:8b
    minimax-m2.1
    glm-5.1
    liuxu
        3
    liuxu  
       9 天前
    直接 codex 一步到位
    EasonYan
        4
    EasonYan  
       8 天前
    glm 给的配额也太少了,只有 minimax 勉强够用
    ClericPy
        5
    ClericPy  
       8 天前
    @longxinglink 看到有个老外评测各种模型,买的 pro 套餐量很足,就想知道它这个网络连通性需要科技么

    刚退了 copilot ,找不到靠谱的就想直接买 minimax highspeed 了。 不知道 ollama 那边模型 tokens/s 能到多少,20 刀挺实惠
    longxinglink
        6
    longxinglink  
       8 天前   1
    @ClericPy Anycast/google.com 可直连,沿海 TCP 100ms 内,自用 API 丢到 Render 免费档跑了三个月没封我号,
    不同模型 tokens/s 有差别,比 nvidia 快,但是免费档模型选择和并发使用量都比 nvidia 少,
    注册需要 gmail Oauth ,尝试过域名邮箱注册都被风控拒绝了。注册给 API
    写代码推荐 chatgpt.com ,codex free 账户和 Pro 账户使用模型一样,2.2 美元 5 小时限制,用完换账户就行
    qf19910623
        7
    qf19910623  
       7 天前
    claude code 能不能用,我不想换工具
    ClericPy
        8
    ClericPy  
       6 天前
    ollama cloud 试了免费的,马马虎虎不快不慢的

    买了一个月 opencode go ,官方文档给的方式没法直接配到 cc 里,靠 complete 接口开代理( cc-switch )用上了,速度不是很快的感觉

    准备试试 highspeed 的 M2.7

    唉,如果能有个平替 GLM5 turbo 的也行,这东西首 token 也快 TPS 也高,太爽了。。。最后实在没选的再看看买它吧,续费不让用 starter 套餐了
    ClericPy
        9
    ClericPy  
       6 天前
    @qf19910623 没点到回复你。看上面吧

    opencode go 折腾一晚上,最后还是靠代理模式转的。

    ollama 倒是一下就配置好了,也是代理模式

    点测试就没比 glm5 turbo 快的( 600ms ),其他所有国内外的都 2s+
    nrtEBH
        10
    nrtEBH  
       5 天前
    买 copilot 呀
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     3214 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 39ms UTC 14:13 PVG 22:13 LAX 07:13 JFK 10:13
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86