Local LLM way to explore https:https://cdn.v2ex.com/navatar/c8ed/21db/722_normal.png?m=1751736797 https:https://cdn.v2ex.com/navatar/c8ed/21db/722_large.png?m=1751736797 2026-05-11T18:45:58Z Copyright © 2010-2018, V2EX 想折腾一个 AI 主机,请行家出手 tag:www.v2ex.com,2026-05-09:/t/1211566 2026-05-09T17:02:50Z 2026-05-11T18:45:58Z davidyin member/davidyin

可行性有多大,能否代替订阅的那些 ai 服务?

配置有没有推荐的,各 AI 行家请出手相助。 ]]>
锤子找钉子的项目分享:假想企业本地部署后不用人工洗库接入 llm 的中间层。 tag:www.v2ex.com,2026-05-09:/t/1211391 2026-05-09T03:15:17Z 2026-05-09T05:12:17Z KaiWuBOSS member/KaiWuBOSS 锤子找钉子的项目分享:假想企业本地部署后不用人工洗库接入 LLM 的中间层

我问 AI ,企业数字化差什么?

他说最难的是数据清洗,库太多,数据录入不规范,字段命名乱。ai 要靠猜。

所以花了两周写了个中间层,想解决"企业多个数据库接 LLM 时字段乱、权限乱、口径乱"的问题。写了 7000 行 Python 、134 个测试、3 份架构 spec 。然后意识到:我没有用户,没有真实场景验证,可能从头到尾在解决一个我想象出来的问题。

发出来给大家看看,也许有人真遇到过这个痛点,也许大家帮我确认这就是个锤子找钉子。


想解决什么问题

企业内部通常有好几个数据库:销售用 MySQL 、财务用 PostgreSQL 、HR 用 SQL Server 。现在老板说要接 LLM 让业务人员自然语言查数据。

直接接会遇到这些问题:

问题 举例
字段名无意义 aa字段是单价,hj是合计,LLM 猜不出来
同名不同义 销售库的"金额"是回款,财务库的"金额"是开票
权限失控 销售员能查到成本和利润率
没有 SQL 审查 LLM 生成的 SQL 可能 DROP TABLE
敏感数据裸奔 手机号身份证明文返回

我的想法是在数据库和 LLM 之间加一层,把这些脏活自动化:

企业数据库群( MySQL/PG/SQLite/Oracle/达梦) ↓ ┌─────────────────────────────────┐ │ KaiwuBridge │ │ 自动理解字段含义(不用人工标注) │ │ 权限控制 + SQL 审查 + 数据脱敏 │ │ 跨库字段自动对齐 │ └─────────────────────────────────┘ ↓ 任意 LLM (本地 Ollama / DeepSeek / GPT ) 

核心卖点是不用人工洗库——传统做法是 DBA 花几周给每个字段写注释、建数据字典,我想用 LLM+统计方法自动搞定。


实现了什么

1. 自动理解字段含义(图传播方案)

不是简单让 LLM 看字段名猜含义,而是:

  1. 数据画像:统计每个字段的分布、空值率、唯一值比例
  2. 代数关系检测:自动发现 单价 × 数量 ≈ 合计 这种关系
  3. 建图:把字段、外键、代数关系建成一张依赖图
  4. 图传播:LLM 在图上迭代 3-5 轮,每轮看邻居字段的描述来修正自己的理解

这样即使字段名是aa,系统也能通过"aa × 整数字段 ≈ hj"推断出 aa 是单价。

灵感来自 2026 年 3 月的 DBAutoDoc 论文,核心思想是 schema 理解本质上是图结构问题。

2. 七层安全防线

物理层(只读账号)→ SQL 白名单(只允许 SELECT )→ 注释绕过防护 → 字段级权限( LLM 看不到=查不到)→ 行级过滤 RLAC (华东员工只看华东数据)→ 数据脱敏(手机号自动打码)→ 动态脱敏(按角色返回不同精度) 

3. 解耦架构(三个接口)

GET /v1/context — Agent 获取 schema+权限+映射+歧义信号 POST /v1/execute — Agent 提交 SQL ,中间层负责安全检查+执行+脱敏 POST /v1/chat/completions — OpenAI 兼容接口(兼容层) 

Agent 层和数据层彻底分离。Agent 只管生成 SQL ,中间层只管安全执行。

4. 跨库字段自动对齐

  • bge-m3 embedding + Wasserstein 分布距离
  • 主动学习:优先推送置信度 0.6-0.8 的模糊案例给人审核(信息价值最高)
  • 用户确认/拒绝后自动提取规则,不是调阈值

5. 告警过滤

同一个错误短时间内反复出现且从未成功 → 自动压制,不打扰用户。管理员可以看到"僵尸规则"列表。

6. Schema Linking ( LLM 路由)

企业可能有几十张表、几百个字段,不可能全塞给 LLM 。需要根据用户问题精准定位到相关的 2-3 张表。

做法参考了 SchemaGraphSQL ( ACL ARR 2025 ):

  1. 建图:把所有表作为节点,外键关系+跨库映射作为边
  2. LLM 实体提取:一次调用从问题中提取关键实体,映射到相关表
  3. BFS 扩展:在图上从相关表出发走 2 跳,把 JOIN 需要的关联表也带上
  4. 精选子集:最多给 LLM 看 5 张表的 schema ,而不是全量几十张

这样 LLM 生成 SQL 时只看到精选的、和问题相关的表,不会被无关表干扰,生成准确率显著提升。

零样本、不需要 embedding 模型、不需要训练。一次 LLM 调用搞定路由。


功能全景(经过几次迭代后的当前状态)

从最初只有"连数据库+调 LLM",到现在塞了一堆功能。用一张表说清楚每个模块干什么:

功能模块 解决什么问题 什么场景用 原理/技术
数据画像 (profiler.py) 字段名无意义时无法理解数据 scan 时自动运行,给每个字段建统计档案 空值率/唯一值比例/数值分布/高频值采样
代数关系检测 (profiler.py) aa×bb≈cc这种隐含业务关系人看不出来 同表内数值字段三元组枚举 numpy 向量化计算,5%误差容忍度
图传播引擎 (graph_propagation.py) 单看一个字段猜不出含义,需要上下文 scan --semantic 时替代逐字段 LLM 生成 建依赖图→LLM 迭代 3-5 轮→邻居描述作为 context 精化
Schema Linking 路由 (schema_graph.py) 几十张表不能全塞给 LLM 每次用户提问时自动触发 外键图+LLM 实体提取+BFS 2 跳扩展,精选≤5 张表
跨库语义匹配 (matching.py) 不同库的"金额"可能是不同概念 scan 后自动两两匹配,生成 pending 映射 bge-m3 embedding + Wasserstein 分布距离
主动学习 (matching.py RuleExtractor) 人工审核效率低,不知道先审哪个 管理界面展示待审核映射时排序 优先推送置信度 0.6-0.8 的案例(信息价值最高)
SQL 白名单审查 (security.py) LLM 可能生成 DROP TABLE 每次执行 SQL 前强制检查 sqlparse 语法树分析,只放行 SELECT/WITH
字段级权限 (permissions.py) 销售员不该看到成本字段 schema 发给 LLM 前过滤 配置 denied_columns ,物理移除字段
行级过滤 RLAC (executor.py) 华东员工只能看华东数据 SQL 执行时 CTE 子查询包装注入 WHERE 不依赖 LLM"自觉",执行层强制注入
数据脱敏 (security.py + executor.py) 手机号身份证不能明文返回 结果返回前自动处理 正则打码 + 按角色动态精度( full/partial/round )
告警过滤 (alert_filter.py) 同一个错误反复弹出烦死人 兼容层执行失败时判断 滑动窗口频率统计,≥5 次且 0 成功→压制
歧义检测 (server.py) "销售额"在两个库都有,用哪个? /v1/context 接口返回歧义信号 语义名片匹配+多库来源检测,含 confidence
数据新鲜度 (executor.py) 查到的数据可能是上周的 执行成功后附加提示 查 MAX(updated_at),超 24 小时警告
映射导入导出 (admin.py) DBA 想在 Excel 里批量维护映射关系 管理后台 CSV 上传下载 CSV 解析 + LLM 验证层(检查明显错误)
持续学习 (admin.py + matching.py) 用户反馈应该让系统越来越准 confirm/reject 映射时自动触发 贝叶斯更新阈值 + 规则提取(不只是调参)
解耦接口 (server.py) Agent 层和数据层耦合在一起不好扩展 Agent 自己生成 SQL 时用 context+execute REST 分离:context 只给数据,execute 只管执行

一共 22 个 Python 模块,7015 行代码。说实话写到后面自己都觉得功能堆太多了。


测试和结果

代数关系检测

用 100 行模拟订单数据测试:

  • 召回率:100%( 2/2 个标注关系全部检测到)
  • 误报率:0%(编码字段没有被误判为代数关系)

语义匹配基线(诚实报告)

用 10 对手工标注的跨库字段对测试:

  • **负例拒绝率:100%**(不相关字段不会被误匹配)
  • **正例召回率:0%**(裸英文字段名在 bge-m3 上语义分全部低于阈值)

这个 0%是预期的——证明了图传播层的必要性。裸字段名sales_amountrevenue的 embedding 相似度只有 0.67 ,低于 0.85 阈值。需要图传播先生成中文描述("每笔订单的含税销售金额"),再做匹配才有意义。

但我还没有在真实数据库上跑过完整流水线。

安全测试

65 个安全测试覆盖:SQL 注入(含注释绕过)、JWT 伪造、越权访问、频率限制、数据脱敏。全部通过。

总计

134 passed, 0 failed, 21 warnings 

技术栈

  • Python 3.12 + FastAPI + SQLAlchemy 2.0
  • sentence-transformers (bge-m3) 做 embedding
  • numpy/scipy 做统计验证
  • SQLite 存元数据(零部署)
  • 支持 MySQL / PostgreSQL / SQLite / SQL Server / Oracle / 达梦 / 人大金仓

全部依赖 Apache 2.0 / MIT / BSD ,可商用。


为什么说是锤子找钉子

写完之后冷静下来想了几个问题:

1. 谁是用户?

我假想的场景是"中型企业,有 3-5 个业务数据库,想让业务人员自然语言查数据"。但我没有找到一个具体的企业说"我需要这个"。

2. 真实场景下这个问题存在吗?

也许存在,但解决方案可能不是我想的这样:

  • 大企业有数据中台团队,人工建数据字典不是问题
  • 小企业可能就一个 MySQL ,不需要跨库对齐
  • 中型企业可能更需要的是 BI 工具而不是自然语言查询

3. "不用人工洗库"这个卖点成立吗?

图传播方案理论上能自动理解字段含义,但:

  • 需要 LLM (本地 7B 模型够不够?需要 API 调用?)
  • 准确率未在真实脏数据上验证
  • 企业可能宁愿花一周人工标注也不愿意信任自动化结果

4. 过度工程了吗?

7000 行代码、图传播、主动学习、告警过滤、动态脱敏……如果第一个用户只需要"连 MySQL + 权限控制 + 调 DeepSeek",那 90%的代码都是提前优化。


如果你遇到过这个问题

想听听大家的看法:

  1. 是我想的这么简单么数字化落地?LLM + 优化层 计入数据库,就 AI 落地么?
  2. 真实企业数字化落地最难攻克什么?
  3. 这个方向值得继续做吗?还是应该 pivot 成更具体的东西(比如只做 SQL 安全审查层)?

代码在本地,如果有人感兴趣可以开源。也欢迎直接告诉我这是个伪需求,省得我继续往里面投时间。


参考的论文和开源项目

来源 用在哪 怎么用的
SchemaGraphSQL (ACL ARR 2025) Schema Linking 路由 核心思想:用外键关系图+LLM 实体提取+BFS 路径搜索做 schema linking ,零样本不需要训练。我直接实现了这个方案
DBAutoDoc (2026.03) 图传播引擎 核心思想:schema 理解是图结构问题,通过依赖图迭代传播语义修正直到收敛。我简化了实现,没用原文的 GNN ,直接 LLM 迭代
LLM-FK (2025) 外键发现思路 三 agent 协作( Interpreter/Refiner/Verifier )的思路启发了我的约束发现设计,但我没实现多 agent ,只用了统计方法
Valentine 跨库匹配 baseline schema matching 的开源 benchmark ,参考了它的评估方法论( precision/recall on labeled pairs )
ALITE 约束发现 用数据分析发现函数依赖和包含依赖的思路,我简化成了代数关系检测( A×B≈C )
sentence-transformers embedding 计算 直接用的 bge-m3 模型做字段语义向量化
FastAPI Web 框架 OpenAI 兼容接口
SQLAlchemy 数据库连接 多数据库统一适配层
sqlparse SQL 安全审查 语法树分析,白名单验证,表名提取

部分论文 ai 搜的,,,, 说实话,论文读了不少,但真正落地时大幅简化了。DBAutoDoc 原文用的是 GNN 做图传播,我直接用 LLM 迭代替代了(因为目标场景是企业内部几十张表,不是几千张表的学术 benchmark ,LLM 迭代 3-5 轮完全够用)。


技术细节:Python 3.12 / FastAPI / SQLAlchemy / bge-m3 / 图传播架构 / 134 测试全绿

附仓库(为了避免说推广仓库的,所以放最后): https://github.com/val1813/kwb

]]> gemma4:31b-coding-mtp-bf16 tag:www.v2ex.com,2026-05-06:/t/1210644 2026-05-06T10:38:59Z 2026-05-06T11:10:09Z Livid member/Livid https://ollama.com/library/gemma4:31b-coding-mtp-bf16

本地部署的时候,Best Practices 部分有一些有用信息。 ]]>
有适合本地跑训练 AI 的电脑配置吗? tag:www.v2ex.com,2026-05-06:/t/1210478 2026-05-06T03:23:32Z 2026-05-05T23:23:32Z linxiaojialin member/linxiaojialin 想换个新的台式电脑,平常开发用的,偶尔打游戏,想空闲时间能够本地训练 AI ,请问大家有推荐的配置清单吗?有标记价格就更好了

]]>
都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型? tag:www.v2ex.com,2026-05-06:/t/1210410 2026-05-06T01:16:58Z 2026-05-08T14:40:16Z babymonster member/babymonster
难道小白真的就这样被割韭菜吗? ]]>
LiteChat 轻量级本地大模型聊天 WebUI,支持 vLLM tag:www.v2ex.com,2026-05-05:/t/1210290 2026-05-05T05:26:23Z 2026-05-05T09:30:33Z zsj1029 member/zsj1029 https://github.com/zsj1029/LiteChat

企业内部场景适用,从 llama-cpp 的 webui 扒出来的,本地改造了下支持 vllm

全程 Qwen3.6 27B (vLLM), Claude Vscode 改造 ]]>
DGX Spark、ASUS GX10、MSI EdgeXpert 看起来都像是一个母胎的产品,用起来有差别吗? tag:www.v2ex.com,2026-05-03:/t/1210145 2026-05-03T15:15:04Z 2026-05-06T16:46:47Z SzgSw5zGyN1iy member/SzgSw5zGyN1iy Spark 最贵,和后两者价钱有点儿区别,不过看起来都像是同一个方案,只是公版和各家自己牌子的区别而已?

]]>
推荐一个 GPU 推理速度计算器, 可能方便买配件自建本地大模型的人用上 tag:www.v2ex.com,2026-05-02:/t/1210041 2026-05-02T22:04:03Z 2026-05-07T03:00:44Z Hermitist member/Hermitist https://tps.bunai.cc/ranking?gpu=apple_m5_32g&ic=nvlink5 ]]> github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps tag:www.v2ex.com,2026-05-02:/t/1210011 2026-05-02T13:05:12Z 2026-05-03T19:55:04Z stefwoo member/stefwoo https://github.com/Luce-Org/lucebox-hub

DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decoding. Qwen3.5-27B on a single RTX 3090, Q4_K_M target + BF16 draft, DDTree budget=22.

Up to 207 tok/s in the demo (207.6 tok/s DFlash vs 38.0 tok/s AR, 5.46×) 129.5 tok/s mean on the HumanEval 10-prompt bench 3.43× faster than autoregressive (+15% over chain speculative decoding) 2.8× faster than SGLang AWQ on the same hardware Up to 256K context in 24 GB via TurboQuant TQ3_0 KV cache (128K Q4_0 bench: 134.78 tok/s at ctx=131072)

PFlash speculative prefill on RTX 3090 In-process speculative prefill, C++/CUDA only. A drafter (Qwen3-0.6B BF16) loaded directly into the dflash daemon scores per-token importance over a long prompt; the heavy target (Qwen3.6-27B Q4_K_M) only prefills the spans that matter. Both models share the same ggml allocator on a single RTX 3090. No Python, no Triton, no PyTorch at runtime — just the dflash binary and four custom CUDA kernels (mean_K → score → select → sparse_fwd) plus BSA (mit-han-lab/Block-Sparse-Attention, FA-2 derived, sm_80+) for the long-context drafter forward.

~10.4× TTFT on 128K context: 24.8 s dflash daemon vs ~257 s llama.cpp (FA on, Q4_0 KV). 10.0× TTFT on 64K context: 13.5 s dflash vs 134.95 s llama.cpp. NIAH single-needle retrieved at every measured context (32K → 128K), keep_ratio=0.05, DFLASH_FP_ALPHA=0.85.

]]>
请问各位大神,在隔离环境中,有本地 qwen 大模型,有没什么解决方案,做本地的知识库的方案,类似谷歌那个 notebooklm ,也勉强可以? tag:www.v2ex.com,2026-05-01:/t/1209904 2026-05-01T14:31:22Z 2026-05-02T02:11:07Z ken2025 member/ken2025 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型 tag:www.v2ex.com,2026-04-30:/t/1209674 2026-04-30T07:49:02Z 2026-04-30T10:07:57Z alangz member/alangz 配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

]]>
私有化部署大模型的“终点”是 Mac 还是 Nvidia? tag:www.v2ex.com,2026-04-30:/t/1209582 2026-04-30T02:34:14Z 2026-05-01T07:41:28Z babymonster member/babymonster 我自己的电脑是 5070Ti,总感觉跑一些模型算力不够 tag:www.v2ex.com,2026-04-29:/t/1209353 2026-04-29T05:33:08Z 2026-05-06T07:24:00Z babymonster member/babymonster 各位大佬们,我自己电脑配置也挺高 9800x3d+5070ti,但是自己玩大模型感觉算力不够,输出速度好慢,有没有大佬推荐一下什么显卡玩大模型算力舱还比较不错的

]]>
能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气 tag:www.v2ex.com,2026-04-28:/t/1209195 2026-04-28T13:24:51Z 2026-05-05T06:04:57Z KaiWuBOSS member/KaiWuBOSS 我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞

本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。


一、我遇到了什么问题

去年开始用本地模型做编程辅助。原因很简单:公司代码不能传到海外服务器,Claude Code 和 Cursor 走不通。

但更大的问题是:中国开发者根本没有一个好用的本地 coding agent 平台。

CC 需要翻墙,还要订阅。Cursor 同样。Codex 刚出来也是海外服务。Hermes 这类开源工具不支持 Windows 原生运行,要装 WSL2 ,劝退了大多数国内开发者。最后大家的选择是:要么翻墙凑合用,要么忍着不用。

这是一个真实存在的空缺,没有人填。

本地跑 qwen3:8b ,然后发现问题一个接一个:

🔴 无限循环,像卡带一样

这是本地小模型最让人抓狂的问题。遇到它不会处理的场景,它不会说"我不知道",而是开始重复——同一句话说三遍,同一个错误的修改建议循环出现,同一段代码反复生成。整个任务卡死,只能手动强制退出。这不是偶发现象,是小模型在推理能力不足时的典型崩溃模式。

🔴 修 bug 反复踩同一个坑

让它修一个函数,第一次失败,第二次用完全一样的方式再试,第三次依然。三次机会全浪费在同一个错误上,什么都没推进。

🔴 模型能力本身就弱于 API 模型

这是无法回避的现实。8B 、14B 的参数量,推理能力和 Claude Opus 、GPT-4 差距明显。让一个 8B 模型扛下一个复杂任务的全部推理,成功率很低,这不是哪个工具的问题,是模型本身的边界。

🔴 找不到要改的文件

项目大了之后,模型根本不知道要改哪个文件。让它找 bug ,它要么猜错,要么说"我需要看更多代码",然后把整个项目塞进 context ,然后 context 又爆了。

🔴 对话几轮就开始遗忘

8B 模型 context 窗口只有 8K ,对话多了就满了,模型开始给出驴唇不对马嘴的回答。


这些问题叠在一起,用本地模型做开发辅助的体验极差。

所以我想自己做一个产品来跑。有人就会说:为什么不直接用 ollama + cc ?还友情指导我命令。

哎。

大厂的产品只会为它的商业模式服务。ollama 放弃了参数微调来换取稳定,lm 让开发者纠结什么是最优,CC/Codex/Cursor 都是卖 token ,没有人会真的认真想本地部署缺什么,需要优化什么,记忆怎么优化,上下文怎么压缩,小参数怎么辅助。

但我人微言轻,所以我做了个 MVP 想抛砖引玉。我们可以一起把要优化的都优化了,打造我们自己的产品。

有人也说,我能力不够。

那我的思路是:不够就做整合,够了就做突破。

所以我做了 KWCode ,不是为了商业化,MIT 任何人都能拿走,只希望哪个感兴趣的大神,愿意和我或者和所有开发者一起把它实现并开源,给所有被本地部署膈应的宝子们。


二、我用了哪些思路

思路一:MoE 架构——让 LLM 只做它擅长的那一步

这是 KWCode 最核心的设计决策,也是解决上面所有问题的根本思路。

传统 coding agent 的架构是:一个 LLM 扛全部——理解需求、定位代码、生成修改、验证结果,全让同一个模型做。强模型能扛,小模型扛不住,然后就开始循环、幻觉、乱说。

KWCode 用的是 MoE ( Mixture of Experts )架构:把任务切碎,每个专家只做一件事,LLM 只负责 Gate 分类和内容生成,其他步骤能不调 LLM 就不调。

用户输入 └─► Gate ( LLM 做一次分类,判断任务类型) └─► Locator ( BM25 + 调用图,不调 LLM ,毫秒级定位文件和函数) └─► Generator ( LLM 只写需要修改的那几行代码) └─► Verifier (自动跑语法检查 + pytest ,不调 LLM ) └─► SearchAugmentor (两次失败后自动搜索) 

LLM 在这条流水线里的任务被压到了最小:Gate 做一次分类,Generator 生成几行代码。定位文件、验证结果这两件最耗推理能力的事,完全不让 LLM 做。

参考:Agentless 论文( ICSE 2025 )——确定性流水线在 SWE-bench 上同时达到最高通过率和最低成本,优于让 LLM 自主决策的复杂 agent 。原因很简单:每一步 scope 极小,小模型在小 scope 里表现稳定。


思路二:用调用图定位代码,不靠 LLM 猜

代码定位是小模型最容易失败的步骤,把它从 LLM 手里拿走,换成确定性算法。

CodeCompass ( arXiv:2602.20048 ,2026 年)做了 258 次实验,发现了一个关键结论:

真实项目里,很多 bug 的根因文件名和错误描述毫无关联,只能通过调用链追踪才能找到。对这类"隐藏依赖"任务,BM25 关键词搜索准确率只有 **76.2%**,而图遍历达到 **99.4%**,差了 23 个百分点。

KWCode 的两阶段检索:

  1. BM25 关键词召回(毫秒级,不调 LLM ):从代码库所有函数/类中,快速召回 top-20 候选
  2. AST 调用图展开(毫秒级,不调 LLM ):对每个候选函数,沿调用图向上向下各展开 2 跳,发现隐藏依赖

整个过程不调 LLM ,SQLite 持久化调用图,重启不重建。

技术栈:tree-sitter + rank-bm25 + SQLite。不需要 Neo4j ,不需要 embedding 模型,不需要额外 Docker 。


思路三:打破循环——失败时强制换策略

针对"反复踩同一个坑"和"无限循环"这两个问题:

反无限循环:MAX_RETRIES 硬编码为 3 ,没有任何路径能绕过。同时检测连续两次生成完全相同的 patch ,直接跳过不重试,告诉用户"模型卡住了,建议缩小任务范围"。

反重复失败:三次重试强制用三种不同的问题表述:

第几次 策略
第一次 正常描述需求
第二次 从错误信息出发:"直接修复这个报错,不要解释"
第三次 最小化修改:"只改这一个函数,其他代码一行不动"

第一次失败后先做 Reflection:让 LLM 一句话分析上次失败的原因,然后把这个分析注入下次的 prompt 。不是让模型自由发挥,是强制它先诊断再修。


思路四:专家飞轮,越用越懂你的项目

参考:EE-MCP ( NeurIPS 2025 )——从任务执行轨迹自动提取经验,验证可显著提升后续同类任务成功率。

KWCode 预置了 15 个专家( BugFix 、TestGen 、SpringBoot 、FastAPI 等),每个专家有独立的 system prompt 。

同类任务成功 5 次之后,飞轮自动分析轨迹,生成新专家,经过三道验证门后投产:

专家可以导出成 .kwx 文件,kwcode expert install URL 一行安装别人分享的专家。


思路五:模型能力自适应

CC 不需要考虑这个,因为它只用一个模型。KWCode 需要。

自动检测当前模型的参数量,然后应用不同策略:

模型规模 自动策略
< 10B ( qwen3:8b ) 强制计划确认 · 任务范围限 2 个文件 · 第 1 次失败触发搜索
10-30B ( qwen3:14b ) 可选计划 · 4 个文件范围 · 第 2 次失败触发搜索
> 30B ( qwen3:72b ) 宽松策略 · 8 个文件 · 自动处理复杂任务

切换模型,策略自动切换。


三、现在做了什么

核心功能跑通了。282/282 单元测试通过,E2E 验收通过率 87%( 26/30 ,4 个失败是模型能力边界,不是框架问题)。

代码能力

工程能力

体验


四、还差什么

说实话,有些地方还挺粗糙的:


五、为什么想让更多人一起做

我一个人做这个工具有明显的上限,不是技术上的上限,是视野上的上限。

我自己主要用 Python 和 FastAPI ,所以这方面想得细。但我不知道每天写 Spring Boot 的人最痛的点在哪,不知道搞 Rust 的人在本地模型上遇到什么问题,不知道做小程序的人需要什么。

更重要的是,这件事不应该只是一个人的工具,应该是中国开发者社区的工具。

CC 是 Anthropic 的,Cursor 是美国公司的,Hermes 是外国社区做的。我们用的工具,我们的使用习惯、技术栈偏好、本地化需求,从来都是别人顺手加进去的功能,不是第一优先级。

我想做的是反过来——把中国开发者的需求放在第一位,把本地开源模型的适配放在第一位,然后把这个工具做到能和大厂产品掰手腕。

这件事一个人做不到,但开源社区可以。

Linux 打败了 Unix ,不是因为某一个天才,而是全球开发者共同维护了几十年。VSCode 能超过那么多商业 IDE ,也是因为背后有庞大的插件和贡献生态。

KWCode 不需要你有多高的水平,只需要你在用本地模型做开发,然后把你遇到的问题、你的解法、你的改进贡献进来。多一个人,就多一个使用场景被照顾到,多一个坑被填掉。

Fork 这个项目,改进你最痛的那个点,提 PR ,我们互相借力,一起把它做好。

闭源大厂有钱有人有算力,我们有什么?我们有真实的使用场景,有对本地部署的真实需求,有不依赖海外服务的动力。这已经足够了。


六、怎么参与

项目地址github.com/val1813/kwcode

# Fork 项目,克隆到本地 git clone https://github.com/your-fork/kwcode.git cd kwcode # 安装开发版 pip install -e ".[dev]" # 运行测试确认环境正常 python -m pytest kaiwu/tests/ -v # 找一个你最想改的地方,开始动手 git checkout -b fix/your-improvement 

改什么都可以:

Issues 里列了已知问题和规划中的功能,可以从那里找方向。Discussions 里可以聊技术思路,聊某个方向值不值得做。

没有什么贡献太小。


七、最后说一句

我不知道 KWCode 能不能真的超越 CC 或者 Hermes 。

但我知道,如果中国开发者一直用别人做的工具,一直把自己的需求当作"次要功能"等别人来实现,这件事永远不会有答案。

有些东西,只有自己做才知道能不能做到。

项目是 MIT 开源的,你贡献的代码永远是你的。如果 KWCode 最后做成了,这件事是所有参与的人一起做成的。


项目地址github.com/val1813/kwcode

天工开物 · KWCode · 中国开发者自己的本地 Coding Agent

]]>
用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了 tag:www.v2ex.com,2026-04-27:/t/1208974 2026-04-27T17:53:59Z 2026-04-30T06:35:18Z Livid member/Livid

https://github.com/antirez/llama.cpp-deepseek-v4-flash

]]>
全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了 tag:www.v2ex.com,2026-04-27:/t/1208904 2026-04-27T10:19:27Z 2026-04-28T14:43:12Z KaiWuBOSS member/KaiWuBOSS 同志们,是时候打造一把真正属于开源社区的 Coding Agent 了!

现状:我们被大厂“喂屎”,还要自己擦屁股

我写过 kaiwu(一个本地模型部署器),结果发现——用 Local LLM 做开发的朋友,多得超出想象

大家不断提需求:上下文压缩、Think 模式开关、联网搜索、工具调用……

可这些根本不是 Ollama 或 LM Studio 的事
它们只负责把模型跑起来,至于“怎么让模型变聪明”——那是 Cursor 、Codex 、Hermes 的事。

但大厂们在干嘛?

它们不会花精力优化本地小模型。
因为本地跑得爽,谁还买它们的 API ?

更别提那堵墙了——
国内网络时断时续,任务跑到一半断连,体验像吃苍蝇。
想用 Claude ?得找中转、买注水账号、被收割、还被鄙视。

但墙能拦住资本,拦不住人民。
国际共产主义精神,就体现在一行行开源代码里。


痛点:我们每天都被这六把刀捅

1. 上下文太短,压缩就“失忆”

2. 网络像一堵墙,墙内外都是屎

3. 本地模型连工具都不会用

4. 小模型本身能力就那样,但 API 还不让用

5. 明明本地运行,却是个没记忆的钢铁废料

6. 多模态?视频图片?不存在的

部署难、速度慢、硬件要求高这些,我之前的 kaiwu + LM + Turbo 能解决。
今天我们不聊这些,就聊怎么让 8B 模型跑出 Opus 的体验


我的革命思路:不用 CC 的依赖强 LLM 串行,改用 LLM 做 Gate + 确定性专家的 MOE 架构

核心理念
LLM 只负责当“接线员”,真正干活的是确定性专家——
不依赖模型“啥都懂”,而是让模型只做一件极小、极明确的事。

原理一:Agentless 流水线( ICSE 2025 最佳证明)

不让 LLM 瞎决策,用固定流程 → SWE-bench 上通过率最高,成本最低

我设计的流程( KWCode ): 用户输入 └─► Gate (毫秒级分类) └─► Locator (精确定位文件/函数) └─► Generator (只改该改的地方) └─► Verifier (语法 + pytest ,失败重试)

小模型只需要在小窗口里做一件事——失误率暴跌,错误可被当场抓住

原理二:BM25 + AST 调用图定位(专治“隐藏依赖”)

论文 CodeCompass 发现一个反常识事实:
context 越大的模型,反而越容易漏掉架构上关键但语义上遥远的文件——这叫“导航悖论”。

实验数据( FastAPI 真实项目):

任务类型 BM25 图遍历
有明确关键词 100%
可通过 import 链找到 ~85% ~85%
完全无关键词的隐藏依赖 76.2% 99.4% 🚀

我们的实现

  1. BM25 秒级召回 top-20
  2. AST 调用图展开 2 跳(向上找调用者,向下找被调用者)
  3. 发现那些“名字和 bug 无关但实际是根因”的魔鬼函数

技术栈:tree-sitter + rank-bm25 + SQLite
零依赖、零 embedding 、零 Docker
支持:Python · JS · TS · Java · Go · Rust

原理三:专家飞轮——你的工具越用越强,大厂永远追不上

来自 EE-MCP (NeurIPS 2025) + WLBS 行为图。

预置 12 个专家(通用 7 个 + 中国场景 5 个)。
然后开始飞轮

3 个月后,你的专属专家池——
Cursor 和 Hermes 永远追不上,因为它们无状态,而你有永久记忆

专家可以导出、分享形成我们的社区数据资源。

原理四:失败自动搜索——墙内用 Bing ,墙外用 DDG

Verifier 连挂 2 次 → 自动触发搜索:

零 API key ,零配置,装完即用。
想更隐私?自己部署 SearXNG ,数据不出网。


功能一览(不是为了炫技,是为了解决你的每一天的痛)

模块 做了什么
代码定位 BM25 + AST 调用图,99.4% 命中隐藏依赖
代码修改 只改 patch ,不重写全文,精确匹配
验证重试 语法 + pytest ,失败回滚,失败 2 次开搜索
项目记忆 PROJECT.md / EXPERT.md / PATTERN.md 三层分离,按需 BM25 注入
专家系统 12 预置 + 飞轮自生成 + 可分享安装
中国本地化 自动切 ModelScope / 清华镜像 / Bing 搜索 / Windows 原生

我们和“它们”的不一样

场景 其他工具 KWCode (我们)
Windows 逼你装 WSL2 cmd / PowerShell 原生跑
模型下载 HuggingFace 被墙 自动切 ModelScope
pip 安装 PyPI 慢死 自动切 清华/阿里镜像
搜索增强 DDG 被墙 自动切 Bing 中文版
推荐模型 GPT / Claude (要钱/要梯子) DeepSeek · Qwen · GLM(国产免费)

同志们,这不是一个人的战斗

我只有一台 5060 8G 显存 16G 内存小破电脑,硬盘还时好时坏,花钱买 api 一个月三四千。 我想要人人为龙时代,而不是 api 独大时代。 所以我想打造 一个真正属于开源社区、不依赖大厂 API 、不被墙、让 8B 模型也能干翻 Opus 的 Coding Agent 。

我们有论文支撑,有原型代码,有满腔怒火和热血。
现在还缺你——
缺每一个受够了被收割、被歧视、被网络暴力的开发者。

GitHub 仓库近期开放,代码完全开源。
你可以:

国际共产主义精神,从一行开源代码开始。
让大厂去卖 token 吧,我们有自己的工具了。


行动号召

👉 有没有更好的思路和路径,上述只是我个人研究
👉 后续在本链接发布 github ,欢迎 fork 继续深挖

不要让资本定义“可能”与“不可能”。
我们说了算。 或许很快,8B 模型真能跑赢 OPUS ,所有人都能拥有独属于自己的智能体

要不要先建个群,算了 我社恐 不会维护,有事咱们这个链接聊把

]]>
自己做了一款在线 GPU 推理速度计算器 · TPS Calculator tag:www.v2ex.com,2026-04-27:/t/1208894 2026-04-27T09:34:17Z 2026-05-01T03:11:55Z diudiuu member/diudiuu TPS Calculator · GPU 推理速度计算器

买不起机子,所以做了这个。

在线地址:tps.bunai.cc


突发奇想赶紧记录下来,直接 vibe code ,说敲就写

一个 vibe code 出来的 GPU 推理性能估算工具。

起因很简单——显卡太贵,买不起,想跑个模型又不知道自己的配置够不够, 于是把网上散落的参数和公式汇总了一下,做成了这个计算器。

输入显卡型号、模型、量化方式和运行参数,快速估算:


适合干什么

✅ 在买机子 / 租卡之前,先大概预估一下跑不跑得起来
✅ 学习推理性能建模,理解量化、KV Cache 、TP 、Roofline 这些概念
✅ 做方案初筛和参数对比

❌ 不适合直接替代真实 benchmark
❌ 不适合把估算值当作生产承诺
❌ Mac 电脑没有放出来,验证了一下差距有点大,先放一放


参考资料

这套公式和参数是我自己整理汇总的,没有大量真机跑过验证。 如果你手上有真实的测试数据,发现哪里估算偏差大、公式有问题, 欢迎开 Issue 或 PR 指出来,大家一起学习,一起把这个东西做得更准。

希望有真实数据的大佬帮忙指正,谢谢!🙏

]]>
qwen3.6 27b 本地编码测试 tag:www.v2ex.com,2026-04-27:/t/1208824 2026-04-27T06:36:20Z 2026-04-29T08:01:54Z zsj1029 member/zsj1029 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅


月相那块搞了好多轮

结论:
小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用 ]]>
xllm 真的比 vllm+plugin 性能好么? tag:www.v2ex.com,2026-04-27:/t/1208804 2026-04-27T05:46:35Z 2026-04-27T05:46:35Z joeue404 member/joeue404 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型 tag:www.v2ex.com,2026-04-26:/t/1208567 2026-04-26T00:16:06Z 2026-04-26T10:30:30Z Hermitist member/Hermitist

准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢. ]]>
我的开源项目,欢迎大家使用和批评,本地无字典字符型模型训练架构代码完全开源,可形成语义结构 tag:www.v2ex.com,2026-04-25:/t/1208556 2026-04-25T17:17:46Z 2026-04-25T01:17:46Z evegod member/evegod 欢迎批评,也是 vibe coding 的产物,我是在尝试学习数学和物理相关理论的时候结合编码学的一些自己的看法在做实验,当然实验内容大部分也是 vibe coding 的产物,现有基准是这个模型在本地学习 fineweb 数据集,架构没有词典层,只有字符学习和相关纯数学架构和编码尝试的情况下可以涌现类英语语义结构,而且训练和展开输出均是显存和内存优化形式的,大家可以尝试自己分析和使用一下,相关的思考方式和架构本身也在代码中注释了,如果用其他 ai 去分析该项目会对其数学结构有不同看法,当然可能是我的思考角度导致我的用语和提示词导致其结构偏移和我的用语没有广泛被接受的问题。请大家批评指正,我尽力提高我自己。 项目地址: https://github.com/makai891124-prog/H2Q-MicroStream

]]>
请教一个关于模型训练主机配置的问题 tag:www.v2ex.com,2026-04-25:/t/1208538 2026-04-25T15:02:26Z 2026-04-25T21:14:45Z jamme member/jamme 主要是用来部署YOLO26做数据集训练和目标检测或追踪的,图片数据暂定 5000 张(其实数据有很多,但是暂定用于训练的数据上限是 5000 张)。

目前有一台 RX6600xt ,但是 directML 好像也不能使这张卡参与训练计算,上网查了一下好像是对 7000 系列以上的显卡支持的更好一些。

所以老板的意思是重新配一台 N 卡主机,但我之前没有使用 YOLO 训练的经验,不知道目前这个数量级的数据训练以及这个体量的模型该使用什么卡。咨询官网 AI 的话,就是无脑推荐 4090 、5090 这种大显存的卡。搞得我很头疼~

关于预算的话,老板只说了一句你看着办吧。但之前老板的意思是让我看看能不能把现在这台主机的显卡换成 RTX5070 ,后来我查了一下现在主机的电源,才 500W ,带不动 5070 ,才有了配新主机的这件事。所以我想着写个两三套配置单给老板看,低配高配都写一下,让老板决定选什么。

有没有有YOLO 训练+目标检测经验的 V 友给点建议?跪谢了~

]]>
我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现 tag:www.v2ex.com,2026-04-24:/t/1208365 2026-04-24T10:51:29Z 2026-05-01T02:16:28Z KaiWuBOSS member/KaiWuBOSS 最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。

于是做了个工具自动找最优配置,过程中踩了不少坑,记录一下。


核心发现

1. MoE 模型的 offload 策略决定了一切

Qwen3-30B-A3B 是 MoE 架构,在 8GB 显卡上:

快了 7 倍,显存反而省了 65%。关键是 llama.cpp 支持这个,但你得自己识别哪些 tensor 是 MoE expert (.ffn_.*_exps. 这类命名),然后手动配。

2. KV cache 类型影响比大多数人想的大

同一张 8GB 显卡跑 Llama 3.1 8B ,不同 KV cache 配置速度差异:

配置 ctx 速度
iso3+iso3 ,4 slot 8K 19.4 tok/s
q8_0+q4_0 ,1 slot 8K 38.2 tok/s
f16+f16 ,1 slot 8K 51.7 tok/s
f16+f16 ,1 slot (自动) 64K 26.2 tok/s

f16 比 iso3 快将近 3 倍。但 f16 显存占用更大,所以正确策略是:先算 f16 KV cache 占多少显存,装得下就用 f16 ,装不下再降级。

公式:KV_MB = 2 × layers × kv_heads × head_dim × ctx × bytes / 1024²

3. oobabooga 公式用来预测 ctx 上限

社区里流传的 oobabooga 显存估算公式,原本用来预测装载模型后剩余显存能支持多大 ctx 。但这个公式是基于 q8_0/f16 拟合的,用 iso3 的时候会严重高估显存需求,导致 ctx 只算出 4K 。

最后放弃公式预测,改成二分探测:从 min(nativeCtx, 65536) 开始,OOM 就减半,最多探 5 次,让 llama-server 自己告诉我能跑多少。Llama 3.1 8B 的 ctx 从 4K 直接到 64K 。

4. parallel slot 数量对单用户场景影响巨大

llama.cpp 默认开 4 个并行 slot (为了多用户并发),但单用户场景下这会把 VRAM 分成 4 份。

关掉多余 slot (--parallel 1)之后:18.5 → 38.2 tok/s ,直接翻倍。

5. ubatch 实测比理论更可靠

ubatch 128 vs 512 的性能差异跟模型和显卡都有关系,没有通用最优值。实测结论:

直接 benchmark 两个值取快的,比查文档猜靠谱。

6. 对话压缩不要用模型生成摘要

最初方案是上下文满了之后调本地模型生成摘要——结果单 slot 阻塞,直接超时。

改成纯算法提取:保留头部( system prompt + 首轮对话)和尾部(最近 8K tokens ),中间部分提取代码路径、函数名、文件名、TODO 等关键信息。压缩率 73%,耗时 <1ms 。


用了哪些技术,实现了什么功能

llama.cpp — 推理引擎核心

直接调用 llama.cpp 的 llama-server ,所有参数( ctx 、KV cache 类型、线程数、ubatch 、mlock 、tensor split )都通过启动参数注入。Kaiwu 本质上是一个参数决策层,不改推理引擎本身。

IsoQuant / TurboQuant — 3-bit KV cache 压缩

集成了 johndpope 的 turboquant fork (feature/planarquant-kv-cache),支持 -ctk iso3 -ctv iso3 参数。iso3 的压缩系数实测 0.73 ,理论值 0.75 ,在 VRAM 紧张的设备( 8GB )上可以把 KV cache 占用压缩到 q8_0 的一半。但有约 600MB 固定解码 buffer 开销,VRAM 充裕时反而比 f16 慢 8%,所以策略是 VRAM > 16GB 才默认开 iso3 。

oobabooga 显存估算公式 — ctx 上限预测(已放弃)

社区流传的公式用来预测剩余显存能支持多大 ctx ,基于 q8_0/f16 拟合。iso3 场景下高估显存需求,导致 ctx 只算出 4K 。最终改成二分探测代替公式,让 llama-server 自己决定能跑多少。

GQA 架构识别 — KV cache 精准估算

Qwen3 等新模型用 GQA ( Grouped Query Attention ),kv_heads 远小于 attention_heads 。KV cache 大小公式里用的是 kv_heads 而不是 heads ,不识别这一点会高估 3-4 倍。通过读 GGUF metadata 拿到准确的 kv_heads 值再做计算。

MoE tensor 识别 — 自动 expert offload

读取模型的 tensor 名称列表,匹配 .ffn_.*_exps. 模式识别出 MoE expert 层,自动决定把这部分路由到 CPU 。不需要用户手动指定,也不需要提前知道模型架构。

Extractive Summary — 零延迟对话压缩

上下文到 75% 时触发,纯算法提取:保留 system prompt 、首轮对话、最近 8K tokens ,中间部分按关键词权重保留(代码路径、函数名、文件名、TODO 、命令行等)。不调用任何模型,压缩耗时 <1ms ,73% 压缩率。最初试过调本地模型生成摘要,单 slot 阻塞直接超时,这条路走不通。

GitHub Actions CI — 跨平台自动编译

turboquant fork 需要自己编译带 iso3 支持的 llama-server 。用 GitHub Actions 同时编译 Windows ( MSVC )和 Linux ( GCC )版本,CUDA 12.4 ,覆盖 sm_75/80/86/89 架构,RTX 50 系列通过 PTX JIT 运行时支持。踩了三个 MSVC 编译坑( extern "C" 声明改定义、M_PI 未定义、全局符号缺失),记录在 PROGRESS.md 里。


工具

把上面这些逻辑都自动化了,叫开物( Kaiwu )。一行命令启动,参数全部自动找,结果缓存起来,第二次 2 秒启动。

GitHub: https://github.com/val1813/kaiwu

OpenAI 兼容 API ,Continue / Cursor / Claude Code 直接接。


有遇到类似问题的欢迎交流,尤其是 MoE offload 和 KV cache 这块踩坑挺深的。

]]>
大伙有想过二次训练吗? tag:www.v2ex.com,2026-04-24:/t/1208354 2026-04-24T09:58:36Z 2026-04-24T12:58:36Z archxm member/archxm
  • 比如我下载了一个模型。
  • 然后再把我所有文档交给它,二次训练。
  • 那么,是不是就没必要 RAG 了。
  • 通过这个模型,我就能提问了嘛,毕竟,我的基因已经嵌入进去了。
  • ]]>
    用 DGX Spark 做这些事情,是否能力合适/足够,有佬能解答吗?(估算也行) tag:www.v2ex.com,2026-04-22:/t/1207819 2026-04-22T11:28:26Z 2026-04-23T07:07:57Z qazwsxkevin member/qazwsxkevin 这东西我都没见过实物,在 USA 的同学有一台,但是他上线后应用的事情都快拉爆了,暂时没空测我的想法,只能想象着来问一下这里各位佬了:

    问题:

    考虑:

    ]]>
    多台 GPU 之间怎么组网互联? tag:www.v2ex.com,2026-04-21:/t/1207541 2026-04-21T09:52:14Z 2026-04-23T15:23:29Z mingtdlb member/mingtdlb 比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器

    好奇问一下,想学习学习

    ]]>
    部署本地模型 token 输出万能公式 tag:www.v2ex.com,2026-04-20:/t/1207254 2026-04-20T09:40:14Z 2026-04-20T10:54:39Z diudiuu member/diudiuu 比如看 dgx spark 这台机子,部署 31B BF16 gemma

    这台机子的带宽 273 GB/s

    31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s

    实际能到 3token/s 已经是牛逼 plus ,顶多 2.5token/s

    所以有个关系,不要问能不能运行咋的,自己大概算下基本就知道能不能用

    简单得推理我觉得至少要到25token/s,看起来才正常

    1. 模型必须能加载完,显存只是基本条件

    2. 必须要看内存带宽( Memory Bandwidth ),这个太低得话估计就是个跛子,我看几乎很少有人部署模型时注意这个配置,这个也是非常重要得参数

    3. 上面得基本是按照英伟达机子算出来得,mac 机子比较特殊,基本只要能加载到 gpu 里面,剩余一点内存,就能用速度不会很慢( 20token/s 将就能用),冷启动稍微慢点

    还有个本地模型部署,除了花大钱,本地部署就是玩玩可以,起码现在不要妄想超过线上得模型,尤其写代码方面

    我个人认为现在本地模型能做得事

    1. ocr
    2. 总结做知识库
    3. openclaw 还有什么爱马仕这个推理也可以做,需要提前用线上模型完成复杂得代码,本地执行推理一定要记得做好机子散热,一定!!一定一定!!!

    希望大家来交流自己得心得,大家共同学习进步

    ]]>
    有没有简单版的 new-api 项目 tag:www.v2ex.com,2026-04-20:/t/1207247 2026-04-20T09:26:52Z 2026-04-20T11:48:21Z novaren member/novaren 个人使用 new-api 配置项太多了,看的我头疼。 有没有简单版本的

    ]]>
    想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型 tag:www.v2ex.com,2026-04-20:/t/1207206 2026-04-20T07:40:00Z 2026-04-24T11:54:03Z EchoPrince member/EchoPrince 公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

    ]]>
    本地部署靠不靠谱? tag:www.v2ex.com,2026-04-20:/t/1207126 2026-04-20T03:34:42Z 2026-04-19T11:34:42Z jdjingdian member/jdjingdian 在 mac studio 、395 Max 和 DGX Spark 这几种设备考虑

    本地部署的 coding 能力和效果,能接近 gpt-5.3-codex 吗?

    如果本地部署的 coding 能力可以,我感觉可以让牛逼的模型 API 来创建分解任务,然后让本地执行。

    ]]>
    为什么你该停止使用 Ollama tag:www.v2ex.com,2026-04-18:/t/1206839 2026-04-18T06:36:25Z 2026-04-19T05:23:55Z catazshadow member/catazshadow https://sleepingrobots.com/dreams/stop-using-ollama/

    “Ollama wrapped that work in a nice CLI, raised VC money on the back of it, spent over a year refusing to credit it, forked it badly, shipped a closed-source app alongside it, and then pivoted the whole thing toward cloud services. At every decision point where they could have been good open-source citizens, they chose the path that made them look more self-sufficient to investors.”

    总之就是开源小偷,还尝试锁死用户

    原文建议用这些:

    llama.cpp is the engine. It has an OpenAI-compatible API server (llama-server), a built-in web UI, full control over context windows and sampling parameters, and consistently better throughput than Ollama. In February 2026, Gerganov’s ggml.ai joined Hugging Face to ensure the long-term sustainability of the project. It’s truly community-driven, MIT-licensed, and under active development with 450+ contributors.

    llama-swap handles multi-model orchestration, loading, unloading, and hot-swapping models on demand behind a single API endpoint. Pair it with LiteLLM and you get a unified OpenAI-compatible proxy that routes across multiple backends with proper model aliasing.

    LM Studio gives you a GUI if that’s what you want. It uses llama.cpp under the hood, exposes all the knobs, and supports any GGUF model without lock-in. Jan is another open-source desktop app with a clean chat interface and local-first design. Msty offers a polished GUI with multi-model support and built-in RAG. koboldcpp is another option with a web UI and extensive configuration options.

    Red Hat’s ramalama is worth a look too, a container-native model runner that explicitly credits its upstream dependencies front and center. Exactly what Ollama should have done from the start. ]]>
    本地大模型多大显存够用? tag:www.v2ex.com,2026-04-15:/t/1206176 2026-04-15T12:39:31Z 2026-04-15T18:06:28Z s2555 member/s2555 求可靠本地 vibe coding,有八卡的 L20 服务器 tag:www.v2ex.com,2026-04-15:/t/1206039 2026-04-15T04:49:38Z 2026-04-14T12:49:38Z sqshanyao member/sqshanyao 想掏一台 Mac mini M4 Pro 64G 跑 gemma4 31b Q4 接 openclaw 处理日常的问题,有人测试过速度吗? tag:www.v2ex.com,2026-04-13:/t/1205378 2026-04-13T00:55:57Z 2026-04-15T03:43:48Z Ken1028 member/Ken1028 32B 本地 vibe coding 有能用的模型吗 tag:www.v2ex.com,2026-04-11:/t/1205176 2026-04-11T13:55:39Z 2026-04-12T15:59:54Z RatioPattern member/RatioPattern 70B 以下 32B 左右的

    ]]>
    Gemma4 + LiteRT-LM 真得有点的东西, e2b 内存仅 2G 左右占用, 在 天玑 的安卓机上跑的飞快. tag:www.v2ex.com,2026-04-08:/t/1204376 2026-04-08T09:14:31Z 2026-04-12T05:24:43Z dacapoday member/dacapoday 安卓用这个: https://github.com/google-ai-edge/gallery

    另外在 m2 mac 上直接跑 cli https://github.com/google-ai-edge/LiteRT-LM

    这种性能已经完全可以离线运行 酒馆 小手机 之类的私密场景.

    ]]>
    闲置 16GB M1 Pro MBP 跑大模型 tag:www.v2ex.com,2026-04-07:/t/1204156 2026-04-07T16:29:58Z 2026-04-08T16:17:12Z ahdw member/ahdw
    也试了一下 Jackrong 的 Qwopus 3.5 9B 6bit MLX ,还是只能当单次聊天回复机器人用,接入 OpenCode 就报错。

    实在是想不出来本地 LLM 有什么用。

    加钱换 64G 的新机器?那钱买 Coding Plan 都够用多长时间了,不比本地模型强多了。 ]]>
    有人用 mac studio 测试过 gemma4 31b 16 吗 tag:www.v2ex.com,2026-04-07:/t/1204041 2026-04-07T07:47:37Z 2026-04-07T09:11:44Z wali77 member/wali77
    想着用 mac studio 运行 gemma4,大部分的任务就不用接 API 了

    大家有试过么? ]]>
    gemma4:e4b 的效果出乎意料, 1050ti 也能很好的生成文章 tag:www.v2ex.com,2026-04-07:/t/1203908 2026-04-07T01:27:11Z 2026-04-07T09:04:07Z andyskaura member/andyskaura 这次的谷歌的模型确实牛逼了。
    本地部署未审查版本,简直就是写文利器


    1050ti:
    ]]>
    谷歌的 Gemma 4 怎么样,有必须要本地弄一下吗 tag:www.v2ex.com,2026-04-05:/t/1203630 2026-04-05T04:09:00Z 2026-04-11T21:26:01Z wszzh member/wszzh 如题,看到好多文章都在说 Gemma 4 。或许私人 AI 助手,是不是要成为标配了?

    ]]>
    2 年以后的硬件和本地大模型 tag:www.v2ex.com,2026-04-04:/t/1203495 2026-04-04T03:44:07Z 2026-04-08T14:56:08Z workbest member/workbest 今年内存是大概率不会降价了

    随着价格的刺激和产能的提升,以及对本地大模型的需求,2 年以后 256G 内存能否得到普及?

    256G 内存,加上本地模型的发展,应该可以在本地运行一些非常不错的 coding 模型了

    ]]>
    为什么 Qwen 吹这么牛,但是用起来体验这么拉啊,它的真实能力究竟怎么样 tag:www.v2ex.com,2026-04-03:/t/1203454 2026-04-03T16:41:09Z 2026-04-03T19:18:28Z unt member/unt Gemma 4 31B 大概什么水平,本地部署是不是又成为现实了 tag:www.v2ex.com,2026-04-03:/t/1203450 2026-04-03T16:01:43Z 2026-04-12T21:25:43Z unt member/unt qwen 本地大模型的问题 tag:www.v2ex.com,2026-04-02:/t/1203064 2026-04-02T04:01:09Z 2026-04-02T04:48:09Z workbest member/workbest 我的机器是 M1 Pro ,32G 内存,部署本地模型主要是两个需求:

    1. 翻译
    2. 总结并做简单的分析提取内容

    我一开始使用的是 qwen3.5-9b 和 qwen3.5-4b 的模型,测试的时候,可以用,但是在实际跑起来的时候,发现 qwen 会无限思考,经常 10 分钟都没有任何响应;后来换成了 qwen3-4b 的模型,效果比较好,很少出现无限思考的问题

    ]]>
    好奇有没有人用本地模型写代码? tag:www.v2ex.com,2026-04-01:/t/1202751 2026-04-01T03:23:54Z 2026-04-01T03:36:32Z turfbook member/turfbook macbook 32G 内存, M5 芯片本地跑大模型有推荐的吗? tag:www.v2ex.com,2026-03-31:/t/1202513 2026-03-31T06:52:04Z 2026-04-03T03:08:08Z Hermitist member/Hermitist
    我本地用的推理框架是 omxl, 然后用小龙虾对接, 干活是能干活,就是有点慢, 当然和 codex 不能比, 可惜 codex/claude code 这些 key 烧的太快, 要等 7 天后, 这也是我本地跑大模型追去无限 token 的初衷.

    请问各位能给予我的配置推荐几个更好更聪明的大模型吗?

    另外基于刚出的谷歌 atomic chat, 这几天有人逆向优化了它, 号称在普通的 macbook 上也可流畅加载 35B 大模型,KV 缓存直接压缩 4.6 倍,不到一周就有 1.5K stars 了.

    这是 github 仓库地址 https://github.com/TheTom/turboquant_plus

    不过它是加载进 llama.cpp 部署, 这个切换模型需要手动, 我懒得折腾了, V 站有闲的人去折腾下, 然后告诉我实际效果吧, 可以的话我准备照抄作业.


    另外附加上当前 qwen3.5-9b 的 tokens 用量, 真的很快, 随便让小龙虾干点活就上千万 token.

    ]]>
    本地部署 deepseek 70B,回答乱码 tag:www.v2ex.com,2026-03-25:/t/1201088 2026-03-25T10:56:42Z 2026-03-26T20:23:28Z weishao666 member/weishao666

    本地部署 deepseek 70B 的模型,问答几轮之后就乱码了,怎么回事?我同事说一般部署的本地模型多轮问答之后就可能会有这个问题?

    ]]>
    3090 跑文本向量模型可以么? 3090 是不是有点过剩? tag:www.v2ex.com,2026-03-21:/t/1200033 2026-03-21T09:28:58Z 2026-03-21T21:33:24Z catyun88 member/catyun88 如题 3090 涡轮 24G 客户拿来跑文本向量模型,配的铂金 8259CL 的处理器 是不是有点过剩

    ]]>
    家用机带宽太小玩不转 local llm 啊 tag:www.v2ex.com,2026-03-15:/t/1198482 2026-03-15T16:37:34Z 2026-04-05T00:20:08Z Eleutherios member/Eleutherios
    一是 qwen3 embedding 8b int8 ,给本地知识库做向量化,结合云端 API ,应该能省一些 tokens ,配置的话,16G 显存的 N 卡都大差不差,或者 Apple M4 + 32G ?想试试给 claude code 加个 local embedding mcp

    从这个角度讲,M4+32G 确实是个挺好的配置

    二是买张魔改的 4090 48G ,可以跑 30b int8 或者 70b int4 ,可以用 QLoRA 调一下模型,玩玩 SillyTavern ?但看网评还是比云端 API 差太多,所以估计只有 刘备 玩家值得一试?

    不知道 3 年后,国产 HBM+国产 GPU 能不能把大内存推理显卡的价格打下来……现在 Local LLM 还是不太行 ]]>
    想部署本地大模型来分析股票趋势,有没有专门针对股票的大模型? tag:www.v2ex.com,2026-03-12:/t/1197640 2026-03-12T02:36:26Z 2026-03-12T05:13:00Z pangfahe member/pangfahe 之前一直都是用 ds 来分析股票数据,今天突然好奇,有没有专门针对股票的大模型?最好是可以部署在本地的。

    ]]>
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86