
心血来潮本地学习尝试了一下 CLIP 模型的图片语义检索效果,但是想真正投入使用时发现缺少便捷的访问途径。正好想到手头 NAS 里有点闲且对接了 Telegram 的龙虾,便尝试使用 FastAPI + CLI 套壳丢进去当成 Skill 喂给 OpenClaw 试试效果,折腾完发现还有点可用之处,遂发出来分享下。

git clone https://github.com/R0sin/memeclaw.git uv tool install ./memeclaw # 初始化配置文件,默认路径为 ~/.memeclaw/config.toml memeclaw config init # 对接 OpenClaw 的话,推荐以下目录避免被安全策略拦截 memeclaw config set --image-dir "/home/node/.openclaw/media/memeclaw" # 迁移 Skill (使用 OpenClaw 工作目录) cp -r ./memeclaw/skills/meme-claw "/home/node/.openclaw/workspace/skills" # 启动服务(首次启动会下载配置的 CLIP 模型) memeclaw serve 默认的模型是 OFA-Sys/chinese-clip-vit-base-patch16,中文语义效果不错,并且只有几百兆大小,一般 CPU 跑起来也不费劲。image-dir 的话是图片检索和上传的父目录,支持递归搜索。
在 OpenClaw 对话中让它检查下 Skill 状态,就可以用了。目前批量上传看起来也没问题,返回结果的话默认是单张,可以修改 Skill 让它返回 TopK 。容器部署的话需要注意下图片目录是否需要持久化。
博客原文:https://r0sin.pages.dev/meme-claw(需代理访问)