
Github 和应用商店里有这几年早就有一些 chatbox (可以自部署,也可以用第三方的)然后再配置上各种 llm 的 api
那么和今年这个 openclaw 上去配置各个大模型的 api 去使用 对比,有什么区别么?
都是通过“网关”,最终都去了各个模型商家的 api 服务地址提交 token
我是小白,去年早些时候自己在 vercel 配置过 github 上的一些聊天机器人后来用会官方自己的 ai 程序了。
现在看到大家都在玩 openclaw ,搞不懂其中的区别。
1 daisyfloor OP 问了下 AI ,大概懂了一些。但也是似懂非懂,我还是自己去 vps 上配置一个看看。 |
2 iomect 2 月 21 日 openclaw 好玩的核心是 macOS 你在电脑上能做的他都能做 |
3 daisyfloor OP @iomect 明白了,这个得配置在本地才好。。。 |
4 HFX3389 2 月 21 日 |
5 Tink PRO 记忆能力更强,有更丰富的 md ,可控制的东西更多 |
6 106npo 2 月 21 日 chatbox 都是单论对话的,而 openclaw 是 agent 模式.这是最大的区别. |
7 gpt5 2 月 21 日 权限更高,可以直接操作电脑。 |
8 pathetique 2 月 21 日 tool use 啊 新弄个服务器 我现在都先上 claw 直接让它帮我配置一切其他的 直接省一个早上 |
9 pathetique 2 月 21 日 就 直接这样用: me, [Feb 21, 2026 at 20:25:00]: 帮我安装一切需要的,有八张 4090 bot, [Feb 21, 2026 at 20:25:13]: 好的,先摸清楚现在装了什么: 好,Linux Mint 22.3 (Ubuntu 24.04 base),4090 全新环境。帮你写好一个完整安装脚本: 脚本已准备好!正在终端里运行: bash ~/.openclaw/workspace/setup_ml.sh 这个脚本会自动安装: | 步骤 | 内容 | | --- | ------------------------ | | 1 | NVIDIA Driver | | 2 | CUDA Toolkit 12.6 | | 3 | VSCode | | 4 | Miniconda (环境管理) | | 5 | PyTorch + CUDA + 常用 ML 库 | | 6 | VSCode Python/Jupyter 插件 | 大概需要 20-40 分钟(取决于网速)。 装完后需要重启才能加载 NVIDIA 驱动。重启后用 nvidia-smi 验证 4090 是否识别到。 |
10 pathetique 2 月 21 日 太舒适了: Sudo 没问题,开始装!先装 NVIDIA 驱动: NVIDIA 驱动安装中,可能需要几分钟... 驱动装好了! 继续装 CUDA 、VSCode 和 Miniconda: CUDA 安装中(比较大,要几分钟)... 我会在完成后通知你 CUDA 12.6 继续装 VSCode: VSCode 已装好(刚才那个锁是上次进程装完的)。现在装 Miniconda: Miniconda 现在创建 ML 环境 + 装 PyTorch (这步最慢): |
11 shinyzhu 2 月 21 日 via iPhone 玩呗,我现在让它每天抓新闻给我,已经 reset 好几次了,用了七牛的 API 。确实它可以自己安装需要的功能,比如 playwright 等等。你就当它有自主能力,然后给它安排活就行。 |
12 szdosar 2 月 22 日 自主决策更大胆了。 案例:我跟龙虾抱怨说局域网内的一台下载电影主机的 jellyfin 服务登录不上。 好家伙,它回复两个选项,其中 2 个选项: 1. 先修复 xxx - 可能需要重启或者检查文件系统 2. 或者用宿主机 Jellyfin - 宿主机的 Jellyfin 应该够用了 --我回复 1 ,它鼓捣后果然能用了。 后来我验证了一下,这家伙把我说的 [电影主机重启] 了,我还以为它只是重启了 jellyfin 服务。 |