
替换下面指令中的 model ID 为你本地 Ollama 里启动的版本。
openclaw onboard --non-interactive \ --auth-choice custom-api-key \ --custom-base-url "http://127.0.0.1:11434/v1" \ --custom-model-id "gemma4:31b-it-q4_K_M" \ --custom-api-key "ollama" \ --secret-input-mode plaintext \ --custom-compatibility openai \ --accept-risk 1 0U0 3 天前 需要什么配置才能跑得动 |
2 Livid MOD OP PRO |
3 Visoar PRO |
4 pkuphy PRO 这个模型真的好用 |
5 senooo 3 天前 手机上的 e2b 2G PC 端的 e2b 7G |
7 v2gba 3 天前 站长这个得 30+的内存才能跑了吧? |
8 zivn 3 天前 32G M3 Pro 不论用 mlx 还是 ollama 跑 31b 基本没法用。 聊天可以,openclaw 直接卡死。 虽说理论上只要 20G 内存,但 openclaw 上下文太长了,预填充要几分钟甚至十几分钟。 26b 是 MOE 就没试了,感觉还是 Dense 才有前途。 |
9 zivn 3 天前 mlx 版本在 huggingface 上,mlx-community/gemma-4-31b-it-nvfp4 ,需要用 mlx-vlm 运行。 |
10 huanxianghao 3 天前 很棒。 在 windows 上面跑了,4070s 跑 26b ,感觉思考时间有点长 |
11 paranoiagu 3 天前 via Android 龙虾的上下文太长了,我 24G 显卡,跑 27B 的 qwen3.5 ,开了 64K 上下文,再大就爆显存了。但是 64K 龙虾不够。 |
12 chipipi 3 天前 via Android 目前什么设备能跑得动? |
13 dinjufen 3 天前 16G 内存的 mac mini m4 能跑动吗 |
14 zoozobib 3 天前 测试 qwen3.5-27b q4 和 gemma4-31b q4 。200K ctx 同样的代码问题,后者一把过,测试用例还是少 |
15 zoozobib 3 天前 但前者能跑到 38 /t 后 只能到 33/t |
16 levn 3 天前 27b q4 使用 32G 显存,就可以开 200k 上下文 31b q4 使用 64G 显存,kv q8 量化都开不到 100k 上下文 |
17 crocoBaby 3 天前 能用度如何? |
18 learnshare 3 天前 16G M2 Mac mini 勉强能跑起来低配两个版本,但仅能跑起来,没啥可用性 以后得买 64G 版本玩一玩了 |
20 zoozobib 3 天前 新测,加了 2b 的 draft , 提升到 45/t ;Draft 接受率 不错,5 成 |
21 fs418082760 3 天前 据说不如 qwen3.5 |
22 hanguofu 3 天前 值得期待 ~ |
24 c0xt30a 3 天前 我用微调版 Qwen3.5 的经验是:只要虾虾不试图修改代码错误,运行还算顺利。技能运行不成功修改代码的时候,有很大的几率把自己搞瘫痪。 |
25 Livid MOD OP PRO @crocoBaby 我还在测试,目前是用来替代了一个之前使用 Opus 4.6 的环境(因为之前的第三方 Claude API 服务商挂了,你知道的那家)。 Gemma4 有两个相对较大的版本,31b 和 26b ,26b 目前试下来会快很多。 |
27 ijimmy 2 天前 via iPhone @fs418082760 qwen 3.5 得先解决空格的问题…… |