前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >ChatRule—基于LLM挖掘KG中的逻辑规则

ChatRule—基于LLM挖掘KG中的逻辑规则

作者头像
绿盟科技研究通讯
发布于 2024-05-17 09:26:33
发布于 2024-05-17 09:26:33
6340
举报
一. 引言

在本文中,我们提出了一个新的框架 ChatRule,提升LLM知识图谱上挖掘逻辑规则 的能力。具体而言,该框架以基于 LLM 的规则生成器为起点,利用 KGs 的语义和结构信息 来促使 LLMs 生成逻辑规则。为了改进生成的规则,规则排名模块通过整合现有 KG中的事实 来估计规则的质量。最后,规则验证器利用 LLMs 的推理能力通过思维链验证排名规则的逻 辑正确性。ChatRule 在四个大规模 KG上进行了评估, 涉及不同的规则质量指标和下游任 务,展示了我们方法的有效性和可扩展性。

二. 一个示例

知识图谱(KG) 以三元组的结构格式存储了庞大的现实世界知识 。KG 推理旨在从现有 事实中推断新的知识,是 KG中的一项基本任务,对于 KG问答和推荐等应用至关重要 。最近,对可解释的 KG 推理的需求日益增加,这可以帮助用户理解推理过程,并提高KG 推理在高风险场景中的可信度 (如医学诊断和法律判断) 。 因此,逻辑规则被广泛应用于 KG 推理中,它们可读性强,可以推广到不同的任务 。例如,如图 1 所示,我们可以找到一 个逻辑规则:GrandMother(X,Y)← Mother(X,Z)∧Father(Z,Y),用于预测“GrandMother ” 关系的缺失事实 。

图 1

为了自动从 KG中发现有意义的规则用于推理,逻辑规则挖掘在研究界引起了重视。早期关于逻辑规则挖掘的研究通常通过发现 KG 结构中频繁模式的共现来找到逻辑规则。 然而, 它们通常需要对 KG中的所有可能规则进行枚举, 并通过估计的重要性对它们进行排名。尽管最近的研究提出使用深度学习方法对规则进行排名,但它们仍受限于对规则的穷举枚举, 并且无法扩展到大规模的 KG。

一些最近的方法通过从知识图谱中抽样路径并在其上训练模型来解决这个问题,以捕捉 形成规则的逻辑连接,但它们通常忽略了关系语义对于表达逻辑连接的贡献。例如:一个人的“父亲 ”的“母亲”是他的“祖母 ”,基于此可以定义如下规则,

如 GrandMother(X, Y) ← Mother(X, Z) ∧ Father(Z, Y) 。然而, 知识图谱中的不同关系均需要领域专家进行手工注释,整个KG的规则注释过程将极为繁琐 。因此,在发现知识图谱中的逻辑规则时, 自动地结合关系的结构和语义是至关重要的。

大型语言模型如 ChatGPT 和 BARD 在理解自然语言和处理许多复杂任务方面表现出很强 的能力 。经过大规模语料库的训练, LLM存储了大量的常识知识, 可以用于促进知识图谱 推理 。 与此同时, LLMs 并没有设计用于理解知识图谱的结构, 这使得直接应用它们来挖掘 知识图谱上的逻辑规则变得困难 。此外,广为人知的幻觉问题可能导致 LLMs 生成无意义的 逻辑规则。

为了弥合 LLMs 和逻辑规则挖掘之间的差距,我们提出了一个新颖的框架称为 ChatRule, 它利用知识图谱的语义和结构信息来引导 LLMs 生成逻辑规则 。具体而言,我们首先提出了 一个基于 LLMs 的规则生成器,为每个关系生成候选规则 。我们从知识图谱中抽样一些路径 来表示结构信息,然后在一个预定义的prompt中利用 LLM的能力进行规则挖掘 。为了减少 幻觉问题,我们设计了一个逻辑规则排序器,通过涵盖知识图谱中观察到的事实来评估生成 规则的质量并过滤掉无意义的规则。质量评分进一步在逻辑推理阶段用于减少低质量规则的 影响。最后,为了消除虚假规则,即在知识图谱中得到支持但在逻辑上不正确的规则,我们 利用 LLM 的逻辑推理能力通过思维链(CoT)推理来验证规则的逻辑正确性。在我们的框 架中,挖掘得到的规则可以直接用于下游任务,无需进行任何模型训练。对四个大规模知识 图谱的广泛实验证明, ChatRule 在知识图谱补全和规则质量评估方面显著优于现有方法。

本文的主要贡献总结如下:

• 我们提出了一个名为 ChatRule 的框架,利用 LLMs 在逻辑规则挖掘中的优势 。据我们 所知,这是第一个将 LLMs 应用于逻辑规则挖掘的工作。

• 我们提出了一个端到端的流程, 利用 LLMs 的推理能力和知识图谱的结构信息进行规 则生成 、规则排序和规则验证。

• 我们在四个数据集上进行了大量实验 。 实验结果表明, ChatRule 显著优于现有方法。

三. 相关工作

3.1

逻辑规则挖掘

逻辑规则挖掘是一项长期以来研究的任务, 其重点是从知识图谱中提取有意义的规则 。传统方法会枚举候选规则,然后通过计算权重得分来评估规则的质量。随着深度学习的进步, 研究人员探索了以可微分的方式同时学习逻辑规则和权重的思路 。然而,这些方法仍然对规则空间进行了大量的优化,限制了它们的可扩展性。最近,研究人员提出了从知识图谱中抽样路径并在其上训练模型来 学习逻辑连接的方法 。RLvLR 从子图中抽样规则,并提出了基于嵌入的评分函数来估计每个规则的重要性 。RNNLogic 将规则生成和规则加权分离开来,彼此可以相互增强并减少搜索空间 。R5 提出了一种强化学习框架,通过在知识图谱上启发式地搜索并挖掘潜在的逻辑规则 。先现有研究中,RLogic 和 NCRL 达到最优效果。然而,它们虽然预测了规则主体的最佳组合,却并没有考虑关系的语义, 并且可能导致次优的结果。

3.2

问题定义

知识图谱(KG) 以三元组的形式表示事实的集合,其中 G = {(e, r, e') = E × R × E}, 其中 e, e' ∈ E 和 r ∈ R 分别表示实体和关系的集合。

逻辑规则是一阶逻辑的特殊情况,它可以促进对知识图谱进行可解释的推理 。逻辑规则ρ以如下形式表示逻辑蕴含关系:

其中

表示一系列关系的合取,称为规则主体;rh(X, Y)表示规则的头部;L 表示规则的长度。 如果规则主体的条件满足,则规则头部的陈述也成立。

规则的一个实例是通过在 KGs中用实际实体替换变量 X 、Y 、Z* 来实现的 。例如, 给定 规则 GrandMother(X, Y) ← Mother(X, Z1) ∧ Father(Z1, Y),一个规则实例δ可以是

GrandMother(Alice, Charlie) ← Mother(Alice, Bob) ∧ Father(Bob, Charlie),这意味着如果 Alice 是 Bob 的母亲, 而 Bob 是 Charlie 的父亲,则 Alice 是 Charlie 的祖母。

四. 方法

ChatRule用于在LLM上挖掘知识图谱中的逻辑规则。整体框架如图 2 所示,包括三个 主要组件:1)基于 LLM 的规则生成器,利用语义和结构信息生成有意义的规则;2)规则 排名器, 用于评估在知识图谱上生成的规则的质量;3)思维链(CoT)规则验证器, 用于 验证规则的逻辑正确性。

1)基于 LLM 的规则生成器

传统的逻辑规则挖掘研究通常集中在使用结构信息,忽视了用于表达逻辑连接的关系语 义的贡献。为了充分利用大型语言模型(LLMs)的语义理解能力,我们提出了一种基于 LLM 的规则生成器,利用知识图谱的语义和结构信息来生成有意义的规则。

为了使 LLMs 能够理解用于规则挖掘的知识图谱结构, 我们采用广度优先搜索(BFS) 采样器从知识图谱中采样一些闭合路径,这些路径可以被视为逻辑规则的实例。给定一个三 元组(e1,rh,eL),闭合路径被定义为连接 e1 和 eL 的关系 r1,...,rL 的序,例如,给定一个三元组(Alice,GrandMother,Charlie) ,可以找到一个闭合路径 p,如下所示:

它在知识图谱中闭合了三元组(Alice,GrandMother,Charlie) 。通过将三元组视为规则头部,将闭合路径视为规则主体,我们可以得到规则实例δ,如方程(2)所示。

给定目标关系 rh, 我们首先从知识图谱中选择一组种子三元组{(e , rh,e')}, 然后进行 BFS 采样, 以获得一组长度小于 L 的闭合路径{p}, 构成一组规则实例{δ} 。 然后, 我们将规 则实例中的实际实体替换为变量,得到规则样本 Srh = { ρ}。规则样本以顺序格式传达了知识 图谱的结构信息, 可以输入到大型语言模型中以促进规则生成。

基于大规模语料库训练的LLM展现出理解自然语言语义和进行常识知识复杂推理的能力 。为了结合结构和语义信息,我们 设计了一个预定义的prompt来利用 LLMs进行规则挖掘。

对于Srh 中的每条规则,使用规则采样器获得关系 rh 的规则样本。 我们通过移除关系名称中的特殊符号将其转化为自然语言句子,这些特殊符号可能会降低 LLMs 的语义理 解能力 。对于原始关系的逆关系(例如,wife -1) ,我们通过添加一个"inv"符号来将其转化 为自然语言表达。然后,我们将转化后的规则样本放入提示模板中,并将其输入到 LLM 中生成规则 (例 如,ChatGPT)。图 3 展示了关系"husband(X,Y)"的规则生成提示示例和LLM生成的结果。

由于规则样本数量庞大,无法同时将它们全部输入到 LLMs 中,因为超出了上下文限制。 因此,我们将规则样本分成多个查询,提示 LLMs 生成规则 。然后,我们收集 LLMs 的响应, 并要求 LLMs 对结果进行总结,得到一组候选规则 Crh = { ρ} 。完整的prompt如下:

2)逻辑规则排名

众所周知, LLMs 存在幻觉问题, 可能会生成不正确的结果 。例如,在图 3 的结果中生成的规则 husband(X,Y) ← husband(X,Z1) & brother(Z1,Y)是不正确的。因此,我们设计了一个规则排名器,通过知识图谱中的事实来检测幻觉并评估生成规则的质量。

规则排名器旨在为候选规则集 Crh 中的每个规则ρ分配一个质量评分 s( ρ) 。 受到先前的 规则挖掘工作的启发, 我们采用四个指标来评估规则的质量, 即支持度(support) 、覆盖 度(coverage) 、置信度(confidence) 和 PCA 置信度(PCA confidence) 。

支持度表示满足规则ρ的知识图谱中的事实数量, 显然, 支持度为零的规则可以在没有 进一步优化的情况下轻松从候选集中剪除。然而,支持度是一个绝对数值,在知识图谱中具 有更多事实的关系可能具有更高的支持度, 并提供有偏的排名结果。

覆盖度衡量了在知识图谱中由规则ρ蕴含的现有事实的比例 。 为了进一步考虑规则的错 误预测,我们引入置信度和 PCA 置信度来估计规则的质量。

置信度假设所有从规则体中推导出的事实都应该包含在知识图谱中 。然而,在实践中, 知识图谱往往是不完整的, 这可能导致缺失证据事实 。 因此, 我们引入 PCA 置信度来选择 能够更好地推广到未见事实的规则。

PCA 置信度定义为满足规则ρ的事实数量与在知识图谱的部分补全中满足规则体 body( ρ)的次数之比 。PCA 置信度的分母不是从规则体中推导出的全部事实的数量, 而是基 于我们知道为真的事实以及我们假设为假的事实的数量。因此,在不完整的知识图谱中,PCA 置信度更好地估计规则的质量和推广能力 。规则质量评估的实验结果也支持了这一观点。

3)基于思维链(CoT)的规则验证器

在逻辑规则排名之后,我们获得了一组针对目标关系 rh ,按优先级排序的规则 Rrh = {(ρ , s( ρ))}。 虽然我们可以剪除支持度为零的规则以提高生成规则的质量, 但需要注意的是, 知识图谱中可能存在噪音,导致出现虚假规则 。这些规则表面上由知识图谱中的事实支持, 但在逻辑上是不正确的, 这可能导致下游任务中的错误预测 。 因此, 我们利用 LLM 的推理能力,使用链式思维(CoT)推理验证规则的逻辑正确性。

对于每个规则ρ ∈ Rrh,我们将其输入 CoT 提示模板,并要求 LLM 验证其逻辑正确性。 图 4 显示了一个例子, 经过排序后具有 8 个支持度的虚假规则 。经过验证后,我们可以自动删除虚假规则,得到最终的规则 Prh。

最终的规则可以用于逻辑推理和解决下游任务,例如知识图谱补全,通过应用现有的算 法,如前向链接。

五. 实验

对于 ChatRule,我们分别使用 ChatGPT1 和 GPT-43 作为规则生成和验证的 LLM。我们选择 PCA 置信度作为最终的规则排名指标,并将最大规则长度 L 设置为 3。

知识图谱补全是一个经典的任务,旨在通过使用基于规则的逻辑推理来预测缺失的事实。这 个任务已经被各种现有的规则挖掘方法(如 Neural-LP 、 RLogic 和 NCRL) 采用, 用于评估 生成规则的质量。我们采用每种方法生成的规则,并使用前向链接来预测缺失的事实 。结果如表 2 所示。

从结果中, 我们可以观察到 ChatRule 在所有数据集上始终优于基准方法 。具体来说, 传统 方法 AIME 只利用归纳逻辑编程中的结构信息, 已经取得了相对较好的性能 。但是,在大规 模知识图谱(例如 FB15K-237 和 YAGO3 -10) 中,AIME 的性能下降, 因为关系和三元组数 量增加 。最近基于深度学习的方法(如 Neural-LP 、DRUMP 和 RNNLogic)通过利用神经网 络的能力获得了更好的性能。然而,由于规则搜索空间的复杂性,它们在处理大型知识图谱 时很容易出现内存不足的问题。尽管先进的方法(如 RLogic 和 NCRL)通过采样闭合路径来 减少搜索空间, 但它们仍然忽略了关系的语义, 导致性能不佳 。相比之下, ChatRule 可以 通过融合知识图谱的结构和语义信息生成高质量的规则 。 因此, ChatRule 在所有数据集上 都可以取得最佳性能。

为了进一步证明规则排名中采用的四个度量(支持度 、覆盖度 、 置信度和 PCA 置信度) 的 有效性,我们使用它们来评估每种方法生成规则的质量 。结果如表 3 所示。

对比基准方法, 我们可以观察到 ChatRule 可以生成具有更高支持度 、覆盖度和置信度。具体来说,我们可以观察到度量标准的分数与知识图谱补全的性能一致。这证明所选的度量标准可以很好地量化规则的质量 。此外, ChatRule 生成的规则质量也优于 基准方法。值得注意的是,即使 ChatRule(ChatGPT)在 YAGO3 -10 的支持度和覆盖度得分 更高,但它的知识图谱补全结果仍然被 ChatRule(GPT-4)超过。原因是 ChatRule(GPT-4) 生成的规则具有更好的 PCA 置信度, 更适合评估不完整的知识图谱中的规则 。更高的 PCA 置信度分数表示 ChatRule(GPT-4)可以生成具有更好泛化能力的规则,而不仅仅依赖于提 示中提供的采样规则 。因此,ChatRule( GPT-4)可以在知识图谱补全任务中取得更好的性能。

参考文献

[1] Linhao Luo. ChatRule: Mining Logical Rules with Large Language Models for Knowledge Graph Reasoning[J]. arxiv, 2023, arXiv:2309.01538.

内容编辑:创新研究院 卜天 责任编辑:创新研究院 舒展

本公众号原创文章仅代表作者观点,不代表绿盟科技立场。所有原创内容版权均属绿盟科技研究通讯。未经授权,严禁任何媒体以及微信公众号复制、转载、摘编或以其他方式使用,转载须注明来自绿盟科技研究通讯并附上本文链接。

关于我们

绿盟科技研究通讯由绿盟科技创新研究院负责运营,绿盟科技创新研究院是绿盟科技的前沿技术研究部门,包括星云实验室、天枢实验室和孵化中心。团队成员由来自清华、北大、哈工大、中科院、北邮等多所重点院校的博士和硕士组成。

绿盟科技创新研究院作为“中关村科技园区海淀园博士后工作站分站”的重要培养单位之一,与清华大学进行博士后联合培养,科研成果已涵盖各类国家课题项目、国家专利、国家标准、高水平学术论文、出版专业书籍等。

我们持续探索信息安全领域的前沿学术方向,从实践出发,结合公司资源和先进技术,实现概念级的原型系统,进而交付产品线孵化产品并创造巨大的经济价值。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-05-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 绿盟科技研究通讯 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
LightPROF:新型轻量级高效 Prompt学习-推理框架用于知识图谱问答,“检索-嵌入-推理”流程显优势 !
随着更多大语言模型(LLMs)的出现,它们持续提升的性能为自然语言处理(NLP)领域带来了重大创新 。在大量训练数据和庞大参数下展现出的“涌现能力”使LLMs在复杂的零样本任务中表现出色。尽管LLMs效果显著,但由于任务特定先验知识和理解能力有限,它们在知识密集型任务中仍面临挑战。此外,LLMs高昂且耗时的训练过程给持续更新和维护其知识库带来了相当大的难题。
未来先知
2025/05/09
330
LightPROF:新型轻量级高效 Prompt学习-推理框架用于知识图谱问答,“检索-嵌入-推理”流程显优势 !
SFFAI分享 | 牛广林:规则引导的知识图谱组合式表示学习【附PPT与视频资料】
牛广林,北京航空航天大学在读博士,研究方向为知识图谱与知识推理,以第一作者发表一篇AAAI2020论文。
马上科普尚尚
2020/05/11
1.2K0
ACL 2024 | 构建超关系知识图谱(KG),增强大模型多跳/Multi-hop QA问答能力!
对于非结构化文本,大模型 (LLM) 比较擅长回答简单(单跳)问题。然而,随着问题的复杂性增加,LLM 的性能会下降。本文作者认为其主要原因是,大模型在理解复杂问题和从原始文本中筛选、聚合非结构化信息过程中出现了性能问题。
ShuYini
2024/06/19
1.4K0
ACL 2024 | 构建超关系知识图谱(KG),增强大模型多跳/Multi-hop QA问答能力!
知识图谱增强的KG-RAG框架
昨天我们聊到KG在RAG中如何发挥作用,今天我们来看一个具体的例子。 我们找到一篇论文: https://arxiv.org/abs/2311.17330 ,论文的研究人员开发了一种名为知识图谱增强的提示生成(KG-RAG)框架(https://github.com/BaranziniLab/KG_RAG),该框架利用生物医学知识图谱SPOKE与大型语言模型相结合,有效的提升了LLM在医疗领域的问答效果。
JadePeng
2024/04/12
1.5K0
知识图谱增强的KG-RAG框架
知识图谱与大模型双向驱动的关键问题和应用探索
知识图谱和大型语言模型都是用来表示和处理知识的手段。大模型补足了理解语言的能力,知识图谱则丰富了表示知识的方式,两者的深度结合必将为人工智能提供更为全面、可靠、可控的知识处理方法。在这一背景下,OpenKG组织新KG视点系列文章——“大模型专辑”,不定期邀请业内专家对知识图谱与大模型的融合之道展开深入探讨。本期邀请到蚂蚁集团知识引擎负责人梁磊分享“SPG与LLM双向驱动的关键问题和应用探索”,本文整理自梁磊老师在2023年10月26日沈阳举办的CNCC知识图谱论坛上的分享。
可信AI进展
2024/01/30
1.4K0
知识图谱与大模型双向驱动的关键问题和应用探索
AAAI 2024| 知识图谱论文总结
最近,收集一下AAAI 2024关于知识图谱的论文,主要是以Knowledge graph为关键词进行总结,关于知识图谱中涉及到的实体识别、关系抽取等文章就不在本次的总结之列(如有遗漏,欢迎大家补充)。
时空探索之旅
2024/11/19
2K0
AAAI 2024| 知识图谱论文总结
论文合集 | 图大模型推荐研究
大型语言模型(LLMs)已经彻底改变了自然语言处理任务,而其与图神经网络(GNN上)之间又会擦出怎样的火花呢?本文汇总了20篇与图大模型相关的论文(主要以推荐系统领域为主),展示最新的工作研究进展。
Houye
2024/05/18
9330
论文合集 | 图大模型推荐研究
【翻译】DoesWilliam Shakespeare REALLY Write Hamlet? Knowledge Representation Learning with Confidence
知识图谱能够提供重要的关系信息,在各种任务中得到了广泛的应用。然而,在KGs中可能存在大量的噪声和冲突,特别是在人工监督较少的自动构造的KGs中。为了解决这一问题,我们提出了一个新的置信度感知(confidence-aware)知识表示学习框架(CKRL),该框架在识别KGs中可能存在的噪声的同时进行有置信度的知识表示学习。具体地说,我们在传统的基于翻译的知识表示学习方法中引入了三元组置信度。为了使三次置信度更加灵活和通用,我们只利用KGs中的内部结构信息,提出了同时考虑局部三次和全局路径信息的三次置信度。在知识图噪声检测、知识图补全和三重分类等方面对模型进行了评价。实验结果表明,我们的置信度感知模型在所有任务上都取得了显著和一致的改进,这证实了我们的CKRL模型在噪声检测和知识表示学习方面的能力。
foochane
2020/06/29
1.1K0
【翻译】DoesWilliam Shakespeare REALLY Write Hamlet? Knowledge Representation Learning with Confidence
Nat. Mach. Intell. | 面向AI驱动的生物医学研究的大规模综合知识图谱
为应对生物医学研究中科学文献与数据的快速增长,知识图谱(KG)成为整合异构大数据、实现高效信息检索与自动知识发现的关键工具。然而,从非结构化文献构建KG仍具挑战,现有方法难以达到专家级准确性。本研究使用曾获2022年LitCoin自然语言处理挑战赛第一名的信息抽取流程,基于全部PubMed摘要构建了大规模KG——iKraph,其信息准确度可媲美人工注释,内容远超现有公共数据库。为提升图谱完整性,研究人员整合了40个公共数据库及高通量组学推理数据。该KG支持以往难以实现的自动知识发现评估。研究人员设计了可解释的概率推理方法,应用于2020年3月至2023年5月的新冠药物再定位,在前4个月识别约1200个候选药物,前三分之一在2个月内即被临床试验或文献支持。该成果难以通过其他方法达成。研究团队还开发了开放云平台(https://biokde.insilicom.com)供学术用户使用。
DrugAI
2025/04/13
1410
Nat. Mach. Intell. | 面向AI驱动的生物医学研究的大规模综合知识图谱
MindMap: 将知识图谱引入LLMs,实现稳健且可解释的推理
像 GPT-3.5 这样的大型语言模型 (LLM) 已经展示了令人印象深刻的自然语言功能。然而,他们的推理过程仍然不透明,容易产生幻觉,且微调LLM成本极其昂贵。
zenRRan
2023/09/11
1.7K0
MindMap: 将知识图谱引入LLMs,实现稳健且可解释的推理
RAG七十二式:2024年度RAG清单
回顾2024,大模型日新月异,智能体百家争鸣。作为AI应用的重要组成部分,RAG也是“群雄逐鹿,诸侯并起”。年初ModularRAG持续升温、GraphRAG大放异彩,年中开源工具如火如荼、知识图谱再创新机,年末图表理解、多模态RAG又启新征程,简直“你方唱罢我登场”,奇技叠出,不胜枚举!
AI研思录
2025/02/20
2220
RAG七十二式:2024年度RAG清单
同济大学发布最新检索增强(RAG)的LLM生成技术综述
摘要主要介绍了大型语言模型(LLMs)在实际应用中面临的挑战,比如幻觉、知识更新缓慢和答案缺乏透明度等问题,并提出了检索增强生成(Retrieval-Augmented Generation,RAG)作为一种解决方案。RAG通过从外部知识库检索相关信息来辅助大型语言模型回答问题,已经被证明能显著提高回答的准确性,减少模型产生的幻觉,尤其是在知识密集型任务中。
唐国梁Tommy
2023/12/21
17K0
同济大学发布最新检索增强(RAG)的LLM生成技术综述
ACL2023 & Amzon | 知识图谱(KG)检索新框架:DiFaR,无需实体链接!
 不论是传统语言模型还是现在飞速发展大语言模型,当面对快速更新迭代的背景知识时都存在一定的局限性。知识图谱(KG)作为大模型的信息补充,可以帮助其更好地理解语言提升模型性能。今天给大家分享的这篇文章,「从知识图谱检索机制出发,分析传统知识图谱检索的局限性,提出了直接事实检索(DiFaR)框架」,实验结果表明,该方法大大优于传统知识图谱KG的pipeline检索方法。
ShuYini
2023/09/14
5920
ACL2023 & Amzon | 知识图谱(KG)检索新框架:DiFaR,无需实体链接!
知识表示发展史:从一阶谓词逻辑到知识图谱再到事理图谱
研究证实,人类从一出生即开始累积庞大且复杂的数据库,包括各种文字、数字、符码、味道、食物、线条、颜色、公式、声音等,大脑惊人的储存能力使我们累积了海量的资料,这些资料构成了人类的认知知识基础。实验表明,将数据依据彼此间的关联性进行分层分类管理,使资料的储存、管理及应用更加系统化,可以提高大脑运作的效率。知识库是实现人工智能的基础元件,知识库是理解人类语言的背景知识,而如何构造这个知识库,找到一种合适的知识表示形式是人工智能发展的重要任务。面向人工智能的表示方法从上世纪五六十年代开始至今,已经陆续出现了多种知识表示方式,包括最开始的一阶谓词逻辑以及现在火热的知识图谱等等。本文是上一篇《事件、事件抽取与事理图谱》的姊妹篇,文章将以知识为中心,对知识、知识表示、知识图谱的历史情况进行介绍。
用户7886150
2021/01/29
2.8K0
LLM很酷,KG也很酷
正如gpt等大规模语言模型(Large Language Model,LLM)在表征抽象、深层语义上的优势一样,知识图谱(Knowledge Graph,KG)也能够以一种符号化的方式组织结构化存在的具象概念。同时,知识图谱也可以通过图表示学习、图算法获得图上实体、关系的向量化表示,进而基于向量实现推理计算。
绿盟科技研究通讯
2023/09/12
8990
LLM很酷,KG也很酷
知识图谱—知识推理综述(一)[通俗易懂]
所谓的知识推理,就是在已有知识的基础之上,推断出未知的知识的过程。通过从已知的知识出发,通过已经获取的知识,从中获取到所蕴含的新的事实,或者从大量的已有的知识中进行归纳,从个体知识推广到一般性的知识。
全栈程序员站长
2022/06/28
2.9K0
知识图谱—知识推理综述(一)[通俗易懂]
RNNLogic:知识图谱推理的逻辑规则学习
今天为大家带来蒙特利尔大学Yoshua Bengio最近的一篇文章。文章提到解决知识图谱推理任务时,逻辑规则的重要性。但是现有方法或面临搜索空间过大的问题,或由于稀疏奖励而使得性能较差。为了解决这些限制,作者提出了一个概率模型RNNLogic。
DrugAI
2021/02/02
4.7K0
RNNLogic:知识图谱推理的逻辑规则学习
KG+RAG 系列范式对比及 KAG 框架再思考:兼看大模型增强 KBQA 问答竞赛方案
作者简介:刘焕勇,360 人工智能研究院资深算法专家,知识图谱及文档理解算法方向负责人,曾就职于中国科学院。
可信AI进展
2024/12/02
3890
NebulaGraph7 种查询(关键词、向量、混合检索),Graph RAG 探索知识图谱
如果你熟悉知识图谱和图数据库 NebulaGraph,可以直接跳到 “RAG 具体实现” 章节。如果你不熟悉 NebulaGraph,请继续往下读。
汀丶人工智能
2024/01/20
3.4K0
NebulaGraph7 种查询(关键词、向量、混合检索),Graph RAG 探索知识图谱
LLM RAG系列
本文介绍了RAG以及RAG pipeline的整个流程,包括请求转换、路由和请求构造、索引和检索、生成和评估等,其中引用了大量有价值的论文。
charlieroro
2024/04/02
8360
LLM RAG系列
推荐阅读
相关推荐
LightPROF:新型轻量级高效 Prompt学习-推理框架用于知识图谱问答,“检索-嵌入-推理”流程显优势 !
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档