
看了一圈都是售罄,国外的只能紧着用,完全不敢接到应用里。免费的 api 也都是定量,而且质量有点低
1 longxinglink 8 天前 OP 需求是啥,codex free 免费管饱,antigravity 生图玩 PPT 很好用,nvidia API 免费且支持并发,ollama APi 开源模型跟进更快 |
2 yulon 8 天前 Kimi 2.5 能满足的话可以用 Fireworks 的 Fire Pass |
3 abc0123xyz 8 天前 鱼 搜 硅基流动 代金券 然后买 deepseek api 吧 接应用别搞 coding plan ,万一后期杀的严了,付费买原价买不起。 至少 deepseek 是真的便宜 |
4 GiantHard 8 天前 MiniMax 的 token plan 还在卖 |
5 jqknono 8 天前 |
6 Atma 8 天前 via Android 个人项目就买点中转的,别买太长 |
9 rust 8 天前 不推荐 MiniMax, 就是一坨. |
10 ebushicao 8 天前 MiniMax 量大便宜,但过于降智,很多时候 skill 都不会调用,一问截止数据就知道路由到更差的模型上了。原本的 MiniMax-M2.7 还是可以的,比 glm-4.7 强和 glm-5 差不多。但是架不住白天调用给 M2 甚至 M1 的模型。 |
11 MontyWei 8 天前 可以看看 ollama cloud ,可以调用国内外的开源模型,注册之后有免费额度。你可以先试试开源的模型是否合适,之后再考虑购买套餐。 |
12 ayasealter570 8 天前 工作日都不太行。整点藤子的积分和 opencodeGo 吧 |
14 skallz 8 天前 之前买的百度家的,逛了一圈就百度家的能买得到,其他家全是耍猴,秒售罄。。。 |
15 wsbqdyhm 7 天前 via iPhone 关注一下,目前用 minimax ,随便玩玩龙虾还可以 |
16 cookii 7 天前 minimax 改复杂问题还差点,写业务代码是够了,主要是速度还比较快。 |
17 konakona 7 天前 目前用阿里云 Coding Plan Pro 投喂小龙虾……还算稳定,用的 qwen3.5 plus ,别的几个套餐内的模型简直了……= =# |
18 cskeleton 7 天前 minimax 量大管饱,但是智商不行,模型规模就那样,我拿来接龙虾。 |
19 Rehtt 7 天前 via Android mac 自建 |
20 rick13 7 天前 我周末刚买了 minimax49 一个月的套餐,用了两天感觉还行,也有可能是因为我用量不大的原因 |
22 jixule 7 天前 硅基流动代金券,方舟还能买到 |
23 LiXueLong 7 天前 @longxinglink 大佬,请问 codex free 免费管饱怎么操作 |
25 xiangqiankan 7 天前 @jixule 方舟千万别碰,量化版本就算了,额度还低,反应慢 |
30 wsseo 7 天前 国外 API 自己用可以,但是不要接到应用里,第一是网络不稳定,第二是找不到售后。 |
33 tedzhou1221 7 天前 minimax 极速版。简单问题,重复性的问题。让它来。 |
34 superkite OP @longxinglink 把 agent 接到应用里,目前接的阿里云百炼的免费模型 |
36 superkite OP @abc0123xyz deepseek 现在质量怎么样 |
40 superkite OP 我主要是自己开发的 app 和网站需要接入 agent ,现在接的阿里云免费 qwen-flash 模型,目前用户量比较小还能扛住,后面如果推广做起来了怕会顶不住,所以需要那种量大管饱的 apikey 和不算太笨的模型 |
41 ayasealter570 7 天前 kimicode199 的,minimax 工作日都会截断了 |
42 longxinglink 7 天前 |
44 lynn1su 7 天前 @ebushicao #43 不可能比 kimi2.5 强的,我已经本地部署了,智力感觉就超过了悦阶星辰的 step-3.5-flash ,和 glm-4.7 差不多,不可能有 kimi-2.5 这个水平的 |
46 fanfpy 7 天前 无问芯穹 三十天 12000 调用 |
47 NoobNoob030 7 天前 我自己 vibe 用中转站 gpt5.4 很便宜 |
48 captain55 7 天前 @longxinglink 大佬能具体讲讲 [codex free 免费管饱] 吗? |
49 qyc666 7 天前 codex free 虽然量大,可是真的不管饱 nvidia 的 api 好用是好用,可是速度慢,别提往应用里接了 |
50 66beta 7 天前 deepseek 或 kimi 自己充钱吧,我用下来觉得还行的,没有比当下 4 月份的 claude 笨,反正觉得更聪明点,主要是量大管饱,1 块钱能做一个大任务 |
51 sheaned 7 天前 百度能买,就是并发低 |
52 chenjunqiang 6 天前 @longxinglink 大佬能具体讲讲 [codex free 免费管饱] 吗? |
53 longxinglink 6 天前 @chenjunqiang https://openai.com/codex/ 几乎没有注册门槛,只需要一个临时域名邮箱,同时多个国家首月 Plus/Business 免费,只需要绑定一个支付方式即可, 如果你不愿意绑定,free 计划也可以在 codex 中使用 gpt-5.4 , 包括 xhigh 级别思考方式,额度是 Plus 的一半,2.2 美元每五个小时,你想要用什么模型? @captain55 |
54 longxinglink 6 天前 @superkite https://build.nvidia.com/settings/api-keys 我推荐使用这个,API 里大概 280 个开源模型,包括 google/gemma-4-31b-it ,z-ai/glm5 这类,域名邮箱不需要手机号验证,免费计划支持 40 并发,几乎无限量,个人完全用不掉 base url https://integrate.api.nvidia.com/v1 key 用自己账户里的,不需要绑定支付方式,只需要域名邮箱接收验证码。 |
55 longxinglink 6 天前 @longxinglink 更正,是 187 个开源模型,我把 ollama (也是免费)的 36 个模型和其他 tab 模型也算进去了,ollama 可以在 https://ollama.com/ 注册,也是不需要验证手机号,不需要支付方式,直接获取免费 API ,比 nvidia 限制多,且一个 API 在同时间只能请求同一个模型 base url https://ollama.com/v1 API 填自己的,包含 glm-5.1 ,gemma4:31b ,minimax-m2.7 等 36 个开源模型 |
56 superkite OP @longxinglink ollama 适合本地跑,属于自己的模型了。我现在不知道企业里的 AI 应用解决方案是怎样的,他们那种 qps 和并发接普通的 api 会很贵吧 |
57 longxinglink 6 天前 |
58 mahonzhan 6 天前 |
60 c0xt30a 5 天前 @longxinglink 刚发现某些 ollama 模型最大生成长度被限制在 64K 了,使用的时候要注意 |
62 yjxjn 5 天前 codex free 免费管饱 -> 这玩意就免费,管饱够呛啊。。。 |