codex 登录要手机号,加上之前的某境外大厂的账号莫名其妙被 ban ,想着用国产的得了,至少登录啥的省事不少。
现在国内的哪家好用点?
现在国内的哪家好用点?

1 anghunk 6h 27m ago 百炼吧,目前我主力是这个 |
2 yjz1409276 5h 12m ago 我用 gpt ,公司订了火山 pro ,只能说一言难尽 |
3 Chisa 4h 10m ago 最强是 GLM5.1 ,性价比的话就是 opencode go 套餐用 DeepSeekV4 pro 。官网直接充钱也行 |
6 JerningChan 3h 23m ago 我怎么觉得,自己在 5090 上部署 qwen3.6 27b 用 cc 对接写代码,也很不错,可能我的项目比较简单? 最早时,接 qwen3.6-35b-a3b 也很不错 |
7 frantic 3h 16m ago GLM 抢不到的话,我觉得 KIMI 199 档年费订阅最划算,其次是 deepseek 不走订阅,直接用 api, 我高强度用一天大概 20 不到 |
8 rb6221 3h 0m ago 性价比肯定是 DS 啊毫无疑问。。现在阶段还有别的吗 |
9 ptstone 1h 3m ago 我看抖音上的评测,最强编程应该时 kimi2.6 |
10 ptstone 1h 2m ago @JerningChan 你使用 vllm 吗 |
11 hutng 51 mins ago @JerningChan 开不开思考模式?怎么接入的?我也是本地,webui 看速度 40t 左右,我打开思考模式,cc 和 opencode 都感觉特别慢,寸步难行,使用的是 cc-switch 接入的。不知道是哪里出了问题 |
12 sentinelK 39 mins ago @hutng 用的是什么硬件?使用 Agent 工具调用本地 LLM 的时候,首次启动的输入 token 少则 5~6K ,多则 10k 起步。prefill 速度比 decode 速度还要重要。5090 的 prefill 速度大概是 3000+t/s 。 如果设备的 prefill 速度不过千,那就相当于每次调用 LLM 都要罚站。 |
14 sentinelK 19 mins ago @hutng 是的,如果是 llama.cpp 可以用 llamabench 来验证下。pp 是输入速度,tg 是输出速度。 Agent 执行一次任务要无数次交互 LLM(查网址、跑终端、改代码),每次都要罚站。和 chat 场景完全不同。 |
15 sharpy 17 mins ago 性价比的话 deepseek v4 flash pro 没有 coding plan 还是比较贵的 综合下来,opencode go ,首月 5 刀 |
17 hutng 11 mins ago @sentinelK #14 好的,感谢,显卡不行,27B 不太行,换 35B A3B 了,开启 MTP 刚测 小上下文情况,预填充 1500 ,生成 100 勉强可用了。 |
19 mandex 6 mins ago 订阅了 Kimi Code 199 档那个,付了年费。DeepSeek 冲了点钱,感觉也还行。 |