
检索增强生成( RAG )是指对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。大型语言模型( LLM )用海量数据进行训练,使用数十亿个参数为回答问题、翻译语言和完成句子等任务生成原始输出。在 LLM 本就强大的功能基础上,RAG 将其扩展为能访问特定领域或组织的内部知识库,所有这些都无需重新训练模型。这是一种经济高效地改进 LLM 输出的方法,让它在各种情境下都能保持相关性、准确性和实用性。
---来自 AWS
1 mdb Dec 6, 2024 前段时间试了下 maxkb ,觉一般,不能进行全局性的总结,后面又试了下 lightrag ,但是一直没运行成功过,同问 |
2 RRRoger Dec 6, 2024 bge-large-zh 做 embedding 模型 配合 bge-reranker-v2-m3 做 reranker 模型 weaviate 作为向量库 基于 dify 平台 目前感觉知识库的质量才是最关键的 |
3 luchenwei9266 Dec 6, 2024 ragflow |
4 Donaldo Dec 6, 2024 lightrag ,但本地模型太慢了。 |
6 unco020511 Dec 6, 2024 dify |
7 npe Dec 6, 2024 dify 吧,比 maxkb 灵活 |
8 dongdong12345 Dec 6, 2024 |
9 pengxiaoyu Dec 6, 2024 dify |
10 c466934322 Dec 6, 2024 奇了怪了,大家怎么不推荐 fastgpt 了 |
11 mengyaoren Dec 6, 2024 dify |
12 lower Dec 7, 2024 langchat |
13 GeruzoniAnsasu Dec 7, 2024 想问问楼上的推荐哪个能解决这个问题: RAG 只能 embed 知识库「内」的知识,但不能 embed 关于知识库「本身」的知识 嵌入 10 条 A 知识后 LLM 能查询 N(N<10) 条最接近 A 知识向量的内容,但无法回答「关于 A 的知识量有多少」 |
14 zqqian Dec 7, 2024 RAG 效果还是不太好,AI 只能看见知识库里片面的数据,无法从一个全局的角度理解知识库中的知识 |
15 FleetingSound Dec 7, 2024 privateGPT Milvus |
16 anyinlover Dec 7, 2024 @GeruzoniAnsasu 关于 A 的知识量有多少不是 RAG 要解决的问题,如果是公域知识直接问 LLM ,如果是私域知识就只能扩展知识库本身了。 |
17 gitsuck Mar 18, 2025 @c466934322 开源知识库上限 30 ,用个 |
18 svtter OP 我用 llamaindex ,感觉还不错。 |