
我发现时间都花在调教上了,只要 SOUL 、MEMORY 、AGENT 调教好了,真挺好用。


1 liuyin Mar 10 就是 token 烧太快了。 |
3 naver1 Mar 10 好奇花了多少钱 |
可以用 MacMini 搭建一个本地模型,安装 OpenClaw 玩玩 |
10 wednesdayco Mar 10 @myderr qwen 出了个 9B 的 实测能 25tokens/s |
11 okrfuse Mar 10 @fj19 本地 ollama 搭建 qwen3.5 9B 模型,傻的要命,跟 qwen cli 没法比,跟 gemini 3.1 flash 更没法比,一上午用下来,感觉本地的 9B 模型完全不行,又换成本地 27B 模型,输出很不流畅,最后还是切换成 gemini ,备用 qwen cli |
12 dabbit Mar 10 不是 openclaw 快,是背后的模型快。 |
13 lujiaosama Mar 10 codex 反代的? |
14 kenshinhu Mar 10 所以 PR review 可以值 $25 一个 |
15 zitup OP @dabbit 它有很多并发,体感感觉比模型要快。我使用 antigravity Claude 没那么快,可能是因为我开了 planning 和 thinking 。 |
16 zitup OP @lujiaosama workspace member |
18 diudiuu Mar 10 调教能分享一下吗 |
19 VeryZero Mar 10 直接用 codex 有区别吗? |
21 iloveyoucool Mar 10 codex 的 apikey 怎么获取的,我加入了 chatgpt 的工作空间,可以写代码用 gpt5.4 ,没看到怎么搞到 apikey |
22 Dream4U Mar 10 @iloveyoucool OpenClaw 支持 oauth ,不需要 API |
23 PawnW Mar 10 求问大佬是怎么调教 SOUL 、MEMORY 、AGENT 的啊,尤其是 AGENT 这一块 |
24 kneo Mar 10 via Android 你就说快不快吧 |
26 David666 Mar 10 路过,调教好又不分享实际经验或写篇文章分享 |
27 inframe Mar 10 龙虾本地用 4 卡跑 Qwen3-32B 能吃满,感觉还行, 算力上看是 1 次 1w-2w token |
30 zitup OP |
32 inframe Mar 11 |
33 RobberPhex Mar 11 Codex/Gemini/Qwen/Copilot/OpenCode 都有免费额度,换着用。 |
34 catazshadow Mar 11 via Android “550W 真是太快了” |
35 gdkttt Mar 11 开发的快,钱也烧的快 |
36 evamayy Mar 11 用什么模型比较划算 |
37 evamayy Mar 11 用什么模型比较划算呢 |
38 zitup OP @catazshadow 夸张了 |
41 Kazetachinu Mar 12 |