
1 zsj1029 OP |
2 Seanfuck 1h 48m ago 上下文设置小一点会快些 |
4 Orangeee 1h 34m ago 看着效果还凑合,一般任务应该够用 |
5 pedclub 1h 0m ago   3.6 进步挺大的 |
6 sentinelK 32 mins ago qwen3.6 35B A3B 的跑分还是挺好看的,智力和满血 DeepseekV3.2 不相上下,但 Agent 能力比 DeepseekV3.2 强很多。和我在 hermes agent 上的体感一致。 从这个角度看,最近这一年,localLLM 的进步,比大模型大很多。 我用家里的 8GVRAM ,64GBRAM 的老爷机用 llama.cpp 跑了一下 Q4 量化,驱动 hermes agent 的普通业务没什么问题,就是有点慢。在--on fit 配置下,大概是 20 多 token 每秒。 等 M5 MAX 的 mac studio 上线,我也打算买一台。 |
7 sentinelK 32 mins ago 主要是 localLLM 强大之后,Agent 玩法才真正的被盘活。 隐私/便利的鱼熊悖论也就被打破了。 |