Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Retrieval Augmented Generation (RAG) 研究报告

Retrieval Augmented Generation (RAG) 研究报告

作者头像
@小森
发布于 2025-02-24 00:21:27
发布于 2025-02-24 00:21:27
4320
举报
文章被收录于专栏:xiaosenxiaosen

引言

近年来,大型语言模型 (LLM) 在自然语言处理领域取得了显著的进展,展现出强大的文本生成能力。然而,LLM 仍然存在一些局限性,例如容易产生“幻觉”(生成不准确或不相关的信息,类似于人类的“虚构”)、知识库更新不及时,以及在面对特定领域问题时提供过时或过于泛化的信息 。Retrieval Augmented Generation (RAG) 是一种新兴的技术,它将信息检索系统与生成式 LLM 相结合,旨在克服这些局限性,增强 LLM 的能力。  

本文将深入探讨 RAG 的定义、原理、应用场景、主要厂商、技术层面以及未来发展趋势,并对其优缺点进行客观评价。

RAG 的定义和基本原理

RAG 是一种 AI 框架,它结合了传统信息检索系统(例如搜索引擎和数据库)和生成式 LLM 的优势 。RAG 通过从外部知识库中检索相关信息,并将其作为 LLM 生成响应的上下文,从而提高 LLM 输出的准确性、相关性和信息量 。  

RAG 的基本原理可以概括为以下几个步骤 :  

  1. 用户向 LLM 提出问题。
  2. LLM 接收用户输入,并将其传递给信息检索组件。
  3. 信息检索组件利用用户输入从外部数据源(例如网页、知识库和数据库)中检索相关信息。
  4. 检索到的相关信息与用户查询一起被输入到 LLM 中。
  5. LLM 利用新的知识和其自身的训练数据生成更完善的响应。

向量数据库

在 RAG 中,外部数据源的信息通常会被转换为向量嵌入,即以大型向量空间形式存在的数字表示 。这些向量嵌入存储在向量数据库中,以便进行文档检索。向量数据库允许基于语义相似性进行快速准确的检索,从而提高 RAG 的效率。  

RAG 的主要应用场景

RAG 在各种需要准确、最新和上下文相关信息的应用场景中都具有巨大潜力,例如:

  • 问答系统: RAG 可以增强问答系统的准确性和信息量,使其能够根据特定领域的知识库或最新信息回答用户问题 。例如,医疗机构可以使用 RAG 模型为医生提供更准确、最新的疾病信息和治疗方案 。  
  • 文本摘要: RAG 可以从长文本中提取关键信息,生成简洁、准确的摘要 。例如,新闻机构可以利用 RAG 模型自动生成新闻文章或总结冗长的报告 。  
  • 机器翻译: RAG 可以利用双语文本语料库来提高翻译的准确性,并生成更符合上下文和语法规则的译文 。  
  • 对话系统: RAG 可以使对话系统(例如聊天机器人和虚拟助手)能够访问最新的信息,并根据用户的查询和上下文生成更相关的回复 。例如,客服聊天机器人可以利用 RAG 从实时数据源中提取信息,为客户提供更准确、个性化的回复 。  
  • 内容创作: RAG 可以帮助内容创作者从各种来源检索相关信息,并生成高质量的文章、报告和摘要 。例如,营销人员可以使用 RAG 模型提取有关热门话题、竞争对手活动和消费者情绪的实时数据,以制作高绩效的广告活动或社交媒体帖子 。  
  • 教育工具: RAG 可以根据学生的学习进度和偏好提供个性化的学习路径、阅读清单和内容建议 。  
  • 法律研究: RAG 可以帮助法律专业人士检索相关案例法和法规,提高法律研究和文件起草的效率和准确性 。  
  • 医疗信息系统: RAG 可以帮助医生和研究人员快速访问与患者病例或病情相关的最新研究结果和临床数据 。  
  • 金融分析: RAG 可以通过整合最新的市场数据、财务报告和经济指标来增强预测和分析能力 。例如,金融分析工具可以通过检索和总结最新的市场趋势、历史财务数据、股票表现、专家评论和经济指标来生成投资预测、分析或报告 。  
  • 代码相关用例: RAG 也可以应用于代码相关的场景,例如将自然语言描述转换为代码实现、将代码转换为自然语言描述、预测下一段代码、自动程序修复等 。  
  • 数据库交互: RAG 可以用于与数据库进行交互,例如将自然语言翻译成 SQL 查询,或根据数据库中的结构化数据回答问题 。  

RAG 的主要厂商

许多科技巨头都在积极研发和应用 RAG 技术,并推出了相关的产品和服务,例如:

公司

产品/服务

主要功能

OpenAI

GPTs

- 提供检索插件,将 ChatGPT 与基于检索的系统相结合 <br> - 使用语义搜索查找上下文相关的文档 <br> - 允许用户上传文件并在 GPT 中启用知识检索

Google

Vertex AI RAG Engine

- 托管编排服务,简化检索和 LLM 集成 <br> - 支持自定义和开源模型 <br> - 与各种向量数据库集成

Microsoft

Azure AI Studio

- 提供多种内置实现,用于将 Azure AI 搜索用于 RAG 解决方案 <br> - 支持向量索引和检索增强 <br> - 与 Azure OpenAI Studio 和 Azure Machine Learning 集成

开源 LLM

Llama 2

- 开源,允许进行广泛的定制和微调 <br> - 易于开发人员和研究人员访问和修改 <br> - 可用于构建各种 RAG 应用程序

RAG 的技术层面

不同类型的 RAG 模型

根据架构和整合外部知识的方式,RAG 模型可以分为以下几种类型:

  • 基于查询的 RAG: LLM 根据输入生成查询,然后使用该查询从外部知识源检索相关信息。检索到的信息与 LLM 生成的输出相结合,生成最终响应 。这种方法适用于处理事实性或基于知识的查询。  
  • 基于潜在表示的 RAG: 利用输入和外部知识源的潜在表示来确定检索信息的的相关性。LLM 生成输入的潜在表示,然后将其与知识源的潜在表示进行比较,以识别最相关的信息 。这种方法可以捕捉更深层次的语义关系。  
  • 基于 Logit 的 RAG: 使用 Logit(LLM 在最终 Softmax 激活之前的原始输出值)来确定检索信息的的相关性。将 Logit 与外部知识源的表示进行比较,选择最相关的信息并将其整合到最终输出中 。这种方法可以更直接地利用 LLM 的内部状态。  
  • 推测性 RAG: LLM 生成多个假设或潜在输出,然后从知识源中检索相关信息来支持或反驳每个假设。最终输出是根据最受支持的假设和检索到的信息生成的 。这种方法可以提高 LLM 输出的多样性和准确性。  
  • 简单 RAG: 这是 RAG 最基本的形式,它直接根据查询检索文档,并使用它们来生成答案 。适用于基本的问答任务。  
  • 带记忆的简单 RAG: 扩展了简单 RAG,通过维护先前交互的上下文来实现 。适用于需要上下文连续性的对话式 AI。  
  • 分支 RAG: 执行多个检索步骤,根据中间结果优化搜索 。适用于需要多步骤推理或信息综合的复杂查询。  
  • HyDe(假设文档嵌入): 在检索之前生成假设的理想文档,以提高搜索的相关性 。适用于知识库中可能没有完全匹配项的查询。  
  • 自适应 RAG: 根据查询的类型或难度动态调整检索和生成策略 。适用于处理不同类型的查询或多样化的知识库。  
  • 纠正性 RAG (CRAG): 通过对检索到的信息进行事实核查来迭代地优化生成的响应 。适用于需要高准确性和事实验证的场景。  
  • Self-RAG: 模型使用自我反思和检索来批评和改进自己的响应 。适用于需要高准确性和允许多次优化步骤的任务。  
  • 代理 RAG: 将 RAG 与代理行为相结合,允许更复杂的多步骤问题解决 。适用于需要规划、决策和使用外部工具的复杂任务。  
文档分块策略

文档分块是 RAG 的一个重要环节,它将文档分解成更小的单元,以便进行向量化和检索 。不同的分块策略会影响检索的效率和准确性。一些常见的分块策略包括:  

  • 固定长度 with 重叠: 将文档分成固定长度的片段,并允许片段之间存在重叠。这种方法简单易行,重叠部分可以帮助维护语义上下文 。  
  • 基于语法的分块: 根据句子的语法结构进行分块。可以使用 spaCy 或 NLTK 等库来实现 。  
混合搜索

混合搜索将语义搜索与关键字搜索相结合,以提高检索的准确性和相关性 。语义搜索可以找到概念上相关的文档,而关键字搜索可以根据关键词进一步过滤结果。  

元数据在文档检索中的应用

元数据可以用于过滤和检索结构化数据源(例如 CSV 文件)中的相关信息 。例如,在处理包含付款人信息的 CSV 文件时,可以根据付款人姓名、城市或邮政信箱地址创建元数据,以便进行更精确的检索。  

净化网络数据

从网络上抓取的数据通常需要进行净化处理,才能用于 RAG 系统 。净化过程包括以下步骤:  

  1. 初始清理: 去除不必要的 HTML 标签(例如 meta、img、head、footer、script、style)并从其余标签中删除属性(例如 class、id、style)。
  2. 内容优化: 将清理后的内容提交给 LLM,过滤掉不重要的元素(例如菜单或社交媒体提示),仅保留相关信息。
  3. 格式化: 使用 LLM 以 Markdown 格式重新格式化内容,创建清晰的层次结构,提高 AI 响应的质量。
RAG 的关键技术挑战

RAG 的实现面临着一些关键的技术挑战,例如:

  • 知识获取: 如何从大量的、异构的数据源中获取高质量的知识,并将其有效地组织和存储 。这需要开发高效的数据集成和处理管道,并考虑数据的多样性和规模。  
  • 知识表示: 如何将获取到的知识表示为 LLM 可以理解和利用的形式,例如向量嵌入、知识图谱等 。这需要选择合适的知识表示方法,并考虑 LLM 的特性和应用场景。  
  • 知识推理: 如何使 LLM 能够根据检索到的知识进行推理,并生成逻辑一致、符合上下文和用户意图的响应 。这需要开发更先进的推理机制,并考虑知识的不确定性和模糊性。  
  • 检索效率: 如何在保证检索准确性的前提下,提高检索效率,尤其是在处理大规模数据时 。这需要优化检索算法和数据结构,并考虑计算资源和延迟的限制。  
  • 可扩展性: 如何构建可扩展的 RAG 系统,以适应不断增长的数据量和用户需求 。这需要采用可扩展的架构和技术,并考虑系统的性能和可靠性。  
  • 数据安全与隐私: 如何确保 RAG 系统在处理敏感信息时的安全性,防止数据泄露和滥用 。这需要采用加密、安全存储和访问控制等措施,并遵守相关的数据保护法规。  
RAG 系统开发策略

在开发 RAG 系统时,需要采取一些策略来解决不同阶段遇到的挑战 :  

  • 数据集成: 需要能够从各种数据源(例如文件、HTML、数据库、API)中提取数据,并将其转换为 LLM 可以理解的格式。
  • 上下文理解: 需要利用检索到的数据来增强 AI 对上下文的理解,以便生成更相关的回复。
  • 用户界面: 需要为用户提供友好的界面,以便他们能够定义数据检索的参数和偏好。
  • 合规性和隐私: 需要确保所有数据检索和处理都符合相关的数据保护法规。

RAG 的未来发展趋势

RAG 作为一个新兴的技术领域,未来发展趋势包括:

  • 与其他技术的融合: RAG 将与其他 AI 技术(例如知识图谱、多模态学习、强化学习等)融合,进一步增强 LLM 的能力 。例如,将 RAG 与知识图谱相结合可以提高 LLM 的推理能力和对复杂信息的理解能力。  
  • 在特定领域的应用: RAG 将在更多特定领域(例如医疗、金融、法律等)得到应用,并针对不同领域的知识和需求进行优化 。例如,在医疗领域,RAG 可以用于辅助诊断、药物研发和个性化治疗。  
  • 实时 RAG: AI 系统将能够通过将实时数据馈送集成到 RAG 模型中来动态检索最新信息 。这将使 RAG 系统能够对快速变化的信息做出更及时的响应,例如新闻事件、市场动态和突发事件。  
  • 混合模型: 检索过程将通过将关键字搜索与知识图谱和语义搜索等复杂检索技术相结合来进行优化 。这将提高检索的准确性和效率,并能够处理更复杂的查询。  
  • 多模态内容: 为了获得更全面的 AI 驱动体验,RAG 将发展到超越基于文本的检索,包括图像、视频和音频 。这将使 RAG 系统能够处理更丰富的信息类型,例如图像识别语音识别和视频分析。  
  • 个性化 RAG 实施: 由于微调方法(如少样本提示和低秩适应 (LoRA))的进步,AI 模型将能够检索和生成高度个性化的内容 。这将使 RAG 系统能够更好地满足用户的个性化需求,例如推荐系统、个性化教育和定制化内容生成。  
  • 设备端 AI: 为了响应对隐私和分散处理日益增长的需求,更多的 RAG 实施将在用户设备上本地运行 。这将减少对云服务的依赖,并提高数据安全性和隐私保护。  
  • 稀疏性技术: 稀疏检索模型和有效的数据架构将增强检索系统,从而降低处理成本并确保更快的搜索结果 。这将提高 RAG 系统的效率和可扩展性,使其能够处理更大规模的数据集。  

RAG 的优缺点

缺点
  • 检索质量: RAG 系统的性能依赖于检索到的信息的质量。如果检索到的信息不准确或不相关,则会影响 LLM 的输出 。这需要对检索模型进行优化,并确保知识库的质量和更新。  
  • 计算成本: RAG 系统需要额外的计算资源来进行信息检索和处理,这可能会增加系统的延迟和成本 。这需要优化检索算法和系统架构,以提高效率和降低成本。  
  • 数据安全: 当使用外部知识库时,需要考虑数据安全和隐私问题,特别是当处理敏感信息时 。这需要采取安全措施来保护数据,并遵守相关的数据保护法规。  
  • 可解释性: RAG 系统的输出可能难以解释,因为 LLM 的推理过程仍然是一个黑盒 。这需要开发更具解释性的 RAG 模型,并提供更透明的推理过程。  
优点
  • 访问最新信息: RAG 可以访问外部知识库,从而获取 LLM 预训练数据中可能没有包含的最新信息 。这使得 RAG 系统能够提供更及时、更准确的响应,例如最新的新闻、研究成果和市场动态。  
  • 事实依据: RAG 可以将 LLM 的输出基于事实信息,减少“幻觉”的产生,提高输出的准确性和可信度 。这使得 RAG 系统更适合用于需要高可靠性的应用场景,例如医疗诊断、金融分析和法律咨询。  
  • 克服知识断层: RAG 可以帮助 LLM 克服“知识断层”的限制,即 LLM 只能访问其训练数据截止日期之前的知识 。这使得 RAG 系统能够提供更全面的知识覆盖,并适应不断变化的信息环境。  
  • 增强用户信任: RAG 可以提供信息来源,使用户能够验证信息的准确性,增强用户对 AI 系统的信任 。这对于需要高透明度的应用场景至关重要,例如新闻报道、学术研究和法律文件。  
  • 提高开发效率: RAG 可以降低 LLM 重新训练的成本,使开发人员能够更有效地测试和改进 AI 应用程序 。这使得 RAG 系统更易于开发和维护,并能够更快地适应新的需求。  
  • 可定制化: RAG 可以根据特定领域或任务进行定制,以满足不同的需求 。这使得 RAG 系统更具灵活性,并能够应用于各种场景。  

案例研究

为了更好地理解 RAG 的优势,以下是一些实际应用案例:

  • 客户支持: 一家软件公司使用 RAG 技术为其客户支持聊天机器人提供更准确、个性化的解决方案 。当用户遇到问题时,聊天机器人可以根据用户的软件版本和设置,从公司的知识库、产品手册和常见问题解答中检索相关信息,并提供定制化的解决方案。  
  • 医疗保健: 一家医院使用 RAG 模型帮助医生诊断罕见疾病 。RAG 模型可以从大量的医学文献、临床试验数据和患者病历中检索相关信息,并为医生提供诊断建议和治疗方案。  
  • 金融服务: 一家投资银行使用 RAG 系统为其财务顾问提供更准确、及时的市场信息和投资建议 。RAG 系统可以访问最新的新闻文章、公司文件、行业报告和市场数据,并生成简洁的摘要和分析报告,帮助财务顾问做出更明智的决策。  

开源的 RAG 工具和框架

一些开源的 RAG 工具和框架可以帮助开发者更方便地构建 RAG 系统,例如:

  • LangChain: LangChain 是一个用于开发大型语言模型 (LLM) 应用程序的开源 Python 包和生态系统。它结合了模块化和灵活的设计以及高级接口,非常适合开发检索增强生成系统。它可以与 Chroma、Pinecone 和 FAISS 等向量数据库集成,并支持从数据库、API 和本地文件加载和检索数据 。  
  • LlamaIndex: LlamaIndex(以前称为 GPT Index)是一个用于开发检索增强生成 (RAG) 系统的强大库。它侧重于从海量数据集中高效索引和检索。它支持多种数据源和检索器,并可以与 LangChain 等其他工具集成 。  
  • Haystack: Deepset 的 Haystack 是一个开源自然语言处理平台,专门用于为搜索和问答系统创建 RAG 管道。其完整的工具集合和模块化设计支持创建适应性强且可定制的 RAG 解决方案。它支持 Elasticsearch、FAISS、SQL 和 InMemory 存储后端,并提供多种检索器和阅读器 。  
  • RAGatouille: RAGatouille 是一个轻量级框架,通过将预训练语言模型的功能与高效的检索方法相结合来简化 RAG 管道的创建,从而生成高度相关且连贯的内容。它支持多种数据源,包括文本文件、数据库和知识图谱,并且适用于各种领域和用例 。  
  • EmbedChain: EmbedChain 是一个开源框架,用于使用嵌入和大型语言模型 (LLM) 开发类似聊天机器人的应用程序,并通过定制知识进行增强。它专注于基于嵌入的 RAG 检索,该检索使用密集向量表示来快速从大型数据集中提取有用信息。它支持 OpenAI、BERT、RoBERTa 和 Sentence Transformers 等嵌入模型,并可以从文件、API 和网络抓取中收集数据 。  
  • NeMo Guardrails: NeMo Guardrails 是一个开源框架,用于轻松地将可编程护栏集成到基于 LLM 的对话应用程序中。它可以帮助开发人员定义模型在特定主题上的行为,防止讨论不需要的主题,并确保符合对话设计最佳实践 。  
  • Verba: Verba 是一个由 Weaviate 提供支持的开源 RAG 聊天机器人。它通过端到端、用户友好的界面简化了数据集的探索和洞察力的提取。Verba 支持本地部署或与 OpenAI、Cohere 和 HuggingFace 等 LLM 提供商集成,以其易于设置和处理各种数据类型的多功能性而著称。其核心功能包括无缝数据导入、高级查询解析和通过语义缓存加速查询,使其成为创建复杂 RAG 应用程序的理想选择 。  
  • Phoenix: Phoenix 促进了一种以笔记本优先的方法,适用于实验和生产环境,强调易于部署以实现持续可观察性。它支持本地嵌入和生成模型,并提供混合搜索功能 。  

总结

RAG 是一种极具潜力的技术,它结合了信息检索和 LLM 的优势,为构建更强大、更可靠的 AI 应用提供了新的途径。RAG 不仅可以提高 LLM 输出的准确性、相关性和信息量,还可以使其能够访问最新的信息、减少“幻觉”的产生、增强用户信任并提高开发效率。

随着技术的不断发展和应用场景的不断拓展,RAG 正逐渐成为 LLM 最广泛的应用之一 ,并被越来越多的企业采用来增强其 AI 系统 。未来,RAG 将与其他 AI 技术融合,在更多特定领域得到应用,并朝着更复杂、更智能的方向发展。RAG 的发展将对各行各业产生深远的影响,例如改变客户体验、彻底改变内容生成以及推动 AI 应用的创新 。  

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-02-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
检索增强生成机理探寻:为什么要RAG?
RAG系列文章的核心观点来自于“灯塔书”《知识增强大模型》第4章《检索增强生成》的内容,这些内容是对书中内容进行补充和概览。书中以45页的篇幅详细介绍了RAG的概念、理论、构建RAG系统的流程,基于DIfy开源框架构建RAG系统的实战、关于RAG的最佳实践指南以及其他一些主流的可以用于构建RAG系统框架的介绍等等。内容非常丰富,实例可以立即上手,思考题可以引导启发,适合于教学和自学。
走向未来
2025/04/27
6290
RAG_Techniques:深入解析GitHub热门RAG技术宝库
在当今AI领域,检索增强生成(Retrieval-Augmented Generation,简称RAG)技术正以惊人的速度发展,成为将传统信息检索与生成式AI相结合的革命性方法。本文将带您深入探索GitHub上备受瞩目的RAG_Techniques项目,这是目前最全面的RAG技术集锦之一,为研究人员和实践者提供了丰富的高级技术实现和示例。
CoderJia
2025/05/07
3390
RAG_Techniques:深入解析GitHub热门RAG技术宝库
RAG (Retrieval-Augmented Generation) 教程
在自然语言处理(NLP)领域,生成式 AI(如 GPT-4)在文本生成方面表现优异,但其主要依赖于预训练的知识,无法动态获取最新信息。为了解决这一问题,RAG(检索增强生成,Retrieval-Augmented Generation)应运而生,它结合了信息检索(IR)与文本生成(NLG)技术,使得 AI 可以利用外部知识库,提高回答的准确性和可解释性。
IT蜗壳-Tango
2025/03/31
6840
生产级RAG系统一些经验总结
本文将探讨如何使用最新技术构建生产级检索增强生成(RAG)系统,包括健壮的架构、向量数据库(Faiss、Pinecone、Weaviate)、框架(LangChain、LlamaIndex)、混合搜索、重排序器、流式数据接入、评估策略以及实际部署技巧。
致Great
2025/05/02
1600
RAG从入门到放弃
想象一下,你有一个非常聪明但是有点“健忘”的朋友——大型语言模型(LLM),比如 GPT 系列。它能写诗、能编程、能跟你聊天,听起来很厉害吧?但是,它所知道的知识都来自于训练它的海量数据,这些数据是有时间范围的,而且不包含你个人或者特定领域最新的、私有的信息。
星哥玩云
2025/04/01
1090
RAG从入门到放弃
生成AI中最新的RAG方法,优缺点
近年来,人工智能技术取得了长足的进步,尤其是生成式人工智能取得了令人瞩目的进展。 IDC 研究显示,生成式 AI 市场规模预计将在 2022 年达到 107 亿美元,2026 年达到 326 亿美元。然而,生成式人工智能在其输出的质量、准确性和可靠性方面仍有改进的空间。引起关注的是检索增强生成(RAG)。 RAG是一种从外部知识源获取相关信息以提高生成式AI性能的技术。
致Great
2025/01/25
2500
RAG 技术综述
检索增强生成(Retrieval Augmented Generation,简称 RAG)向 LLM 提供了从特定数据源检索的信息,以此作为生成答案的基础。简而言之,RAG 结合了搜索和 LLM 的提示功能,在此基础上,模型根据搜索算法提供的信息,作为上下文来回答问题。这些查询和检索到的上下文会一并被注入到发送给 LLM 的提示中。
科技之歌
2024/02/01
1.6K0
RAG 技术综述
什么是检索增强生成 (RAG)?简单易懂,一文说清其组成和作用原理
人工智能一直在帮助企业处理各种事务,从简单的客户查询到复杂的问题解决。然而,即使是最先进的人工智能模型有时也会有不足之处,提供的答案也不太准确。
DenserAI_Chris
2024/09/15
1.4K0
什么是检索增强生成 (RAG)?简单易懂,一文说清其组成和作用原理
【RAG】001-RAG概述
检索增强生成(Retrieval-Augmented Generation,RAG)技术能够有效解决上述问题:
訾博ZiBo
2025/03/25
1720
【RAG】001-RAG概述
[完结14章]RAG全栈技术从基础到精通 ,打造高精准AI应用
RAG是一种结合检索(Retrieval)和生成(Generation)的技术,主要用于让AI在回答问题或生成内容时,能够更好地利用外部知识库,而不是完全依赖于自身预训练的知识。简单来说,它就像是给AI配了一个“外挂”,让它在回答问题时可以先去知识库中查找相关的资料,然后再生成答案。
奔跑企鹅907340320
2025/04/14
2890
RAG科普文!检索增强生成的技术全景解析
增强生成 (RAG) 是塑造应用生成式 AI 格局的关键技术。Lewis 等人在其开创性论文中提出了一个新概念面向知识密集型 NLP 任务的检索增强生成之后,RAG 迅速成为基石,提高了大型语言模型 (LLM) 输出的可靠性和可信度。
致Great
2025/02/15
8060
RAG科普文!检索增强生成的技术全景解析
【愚公系列】《AI Agent技术、应用与商业》004-Al Agent 的技术基础
在人工智能的广阔世界中,智能代理(AI Agent)作为一种重要的应用形态,发挥着越来越关键的作用。无论是在自动化客服、智能推荐,还是在复杂的决策支持系统中,智能代理都以其强大的功能和灵活的应用赢得了广泛关注。然而,支撑这些智能代理正常运作的技术基础是什么呢?
愚公搬代码
2025/03/14
1470
同济大学发布最新检索增强(RAG)的LLM生成技术综述
摘要主要介绍了大型语言模型(LLMs)在实际应用中面临的挑战,比如幻觉、知识更新缓慢和答案缺乏透明度等问题,并提出了检索增强生成(Retrieval-Augmented Generation,RAG)作为一种解决方案。RAG通过从外部知识库检索相关信息来辅助大型语言模型回答问题,已经被证明能显著提高回答的准确性,减少模型产生的幻觉,尤其是在知识密集型任务中。
唐国梁Tommy
2023/12/21
17K0
同济大学发布最新检索增强(RAG)的LLM生成技术综述
RAG 与 MCP 如何以不同方式解决大模型的局限性
Claude 和 GPT-4o 等大型语言模型 (LLM) 功能强大,但也面临两个主要限制:它们包含的知识是时效性的(更具体地说,是在训练时点固定的),并且决定它们一次可以处理多少信息的上下文窗口是有限的。
致Great
2025/04/21
2540
RAG 与 MCP 如何以不同方式解决大模型的局限性
LLM+RAG:让大模型成为真正的知识专家
随着大语言模型(LLM)技术的快速发展,如何让这些模型更好地利用外部知识成为一个重要课题。检索增强生成(RAG)作为一种结合信息检索和生成模型的技术,能够显著提升模型在知识密集型任务中的表现。本文将深入探讨LLM与RAG的结合,展示如何通过代码实现这一技术,并分析其在实际应用中的价值。
江南清风起
2025/04/03
1790
大模型+RAG,全面介绍!
大型语言模型(LLMs)在处理特定领域或高度专业化的查询时存在局限性,如生成不正确信息或“幻觉”。缓解这些限制的一种有前途的方法是检索增强生成(RAG),RAG就像是一个外挂,将外部数据检索集成到生成过程中,增强模型提供准确和相关响应的能力。
算法进阶
2024/05/31
8530
大模型+RAG,全面介绍!
最全梳理:一文搞懂RAG技术的5种范式!
本文主要回顾 RAG 技术的发展,第一部分梳理了综述和关键论文,第二部分梳理了工程实践工具。 
Datawhale
2025/02/24
1.6K0
最全梳理:一文搞懂RAG技术的5种范式!
干货!带你了解7种检索增强生成 (RAG) 技术
在简单RAG中,大型语言模型(LLM)接收用户查询,在向量存储库中进行相似性搜索或在知识图谱中进行关系搜索,然后基于检索到的信息生成答案。
致Great
2025/01/06
5.4K0
干货!带你了解7种检索增强生成 (RAG) 技术
RAG系统:大模型驱动的实时信息检索革新
RAG系统正逐步革新我们对AI驱动信息处理的认知。为充分发挥其潜力,理解其基本原理至关重要。本文旨在简明扼要地解析RAG系统,期望为读者提供洞见与共鸣。
AI浩
2024/12/30
2760
RAG系统:大模型驱动的实时信息检索革新
RAG是什么?
检索增强生成(RAG)是对大型语言模型输出进行优化的方法,使其能够在生成响应之前引用训练数据来源之外的权威知识库。大型语言模型(LLM)通过海量数据进行训练,利用数十亿个参数执行诸如回答问题、语言翻译和生成句子等任务。在已经具备强大功能的LLM基础上,RAG通过扩展其能力,使其能够访问特定领域或企业的内部知识库,而无需重新训练模型。这种方法经济高效,能够有效改进LLM输出,在不同情境下保持相关性、准确性和实用性。
灵雀云
2024/02/22
1.1K0
RAG是什么?
相关推荐
检索增强生成机理探寻:为什么要RAG?
更多 >
加入讨论
的问答专区 >
1技术VP擅长5个领域
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档