Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >ACL 2024亮点:RAG技术进展与论文解析

ACL 2024亮点:RAG技术进展与论文解析

作者头像
Datawhale
发布于 2024-11-11 12:09:15
发布于 2024-11-11 12:09:15
4750
举报
文章被收录于专栏:Datawhale专栏Datawhale专栏

Datawhale干货

编辑:Coggle数据科学

本文将重点介绍会议中涉及的与Retrieval-Augmented Generation(RAG)相关的论文,探索这一领域最新的研究成果和发展趋势。

Call Me When Necessary: LLMs can Efficiently and Faithfully Reason over Structured Environments

https://aclanthology.org/2024.findings-acl.254.pdf

文章首先介绍了LLMs在处理这类任务时的挑战,即需要进行多跳推理,将自然语言话语与结构化环境中的实例相匹配。

在推理路径生成阶段,LLMs根据问题和给定的主题实体生成初始推理路径。在实例化阶段,系统尝试将推理路径与结构化环境匹配,并在遇到错误时收集错误信息。最后,在编辑阶段,LLMs利用这些错误信息来修正推理路径。

LLM as Prompter: Low-resource Inductive Reasoning on Arbitrary Knowledge Graphs

https://aclanthology.org/2024.findings-acl.224.pdf

KG归纳推理的一个关键挑战是处理文本和结构信息都匮乏的低资源场景。为了解决这一挑战,作者提出了利用大型语言模型(LLMs)生成图结构提示来增强预训练的图神经网络(GNNs),从而为KG归纳推理方法带来新的方法论见解,并在实践中具有很高的通用性。

A + B: A General Generator-Reader Framework for Optimizing LLMs to Unleash Synergy Potential

https://aclanthology.org/2024.findings-acl.219.pdf

提出了一个名为“A + B”的框架,旨在优化大型语言模型(LLMs)以释放协同潜力。这个框架通过将生成器(generator)和阅读器(reader)的角色分开,以提高LLMs在知识密集型任务中的性能和安全性。

文章阐述了“A + B”框架,其中A代表生成器,B代表阅读器。生成器A负责产生与输入查询相关的上下文,需要高度的事实准确性;而阅读器B则负责解释生成的上下文以提供适当的响应,需要认知推理和与人类偏好的一致性。

Uncovering Limitations of Large Language Models in Information Seeking from Tables

https://aclanthology.org/2024.findings-acl.82.pdf

文章介绍了一个名为TabIS(Table Information Seeking)的新基准测试,旨在评估大型语言模型(LLMs)在表格信息检索(TIS)方面的能力。TabIS包含三种典型的TIS场景,并采用单选题格式以确保评估的可靠性。通过对12个代表性LLMs的广泛实验。

TEXT2DB : Integration-Aware Information Extraction with Large Language Model Agents

https://aclanthology.org/2024.findings-acl.12.pdf

文章将信息提取的输出与目标数据库(或知识库)进行整合。这项任务需要理解用户指令来确定提取内容,并根据给定的数据库/知识库架构动态适应提取方式。

设计的框架包括与数据库交互的观察者组件、生成基于代码的计划的规划者组件,以及在执行前提供代码质量反馈的分析器组件。

Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs

https://aclanthology.org/2024.findings-acl.11.pdf

Graph-COT的每次迭代包括三个子步骤:LLM推理、LLM-图交互和图执行。文章还包含了数据集的创建过程,包括数据收集、问题模板设计、使用GPT-4生成多样化的问题表达,以及如何从图中自动生成答案。

Citation-Enhanced Generation for LLM-based Chatbots

https://aclanthology.org/2024.acl-long.79.pdf

文章介绍了一种名为Citation-Enhanced Generation (CEG)的新型方法,旨在减少大型语言模型(LLM)聊天机器人在生成回答时可能出现的虚构内容。

Retrieval-Augmented Retrieval: Large Language Models are Strong Zero-Shot Retriever

https://aclanthology.org/2024.findings-acl.943.pdf

文章提出了一种名为“Large language model as Retriever (LameR)”的方法,它利用大型语言模型(LLM)来改善零样本(zero-shot)情况下的大规模信息检索性能。LameR的核心思想是通过提示(prompting)LLM,将查询及其潜在答案结合起来,以增强查询并提高检索质量。

ChatKBQA: A Generate-then-Retrieve Framework for Knowledge Base Question Answering with Fine-tuned Large Language Models

https://aclanthology.org/2024.findings-acl.122.pdf

文章提出了ChatKBQA,这是一个新颖的生成-检索KBQA框架,它首先使用微调的大型语言模型(LLMs)生成逻辑形式,然后使用无监督检索方法检索和替换实体和关系,以更直接地改进生成和检索。

Llama2Vec: Unsupervised Adaptation of Large Language Models for Dense Retrieval

https://aclanthology.org/2024.acl-long.191.pdf

Llama2Vec的核心思想是利用两个预文本任务:EBAE(基于嵌入的自编码)和EBAR(基于嵌入的自回归),来促使LLMs生成能够代表输入文本全局语义的嵌入向量。这种方法简单、轻量级,但非常有效。

MINPROMPT: Graph-based Minimal Prompt Data Augmentation for Few-shot Question Answering

https://aclanthology.org/2024.acl-long.16.pdf

文章介绍了一种名为MINPROMPT的新型数据增强框架,它针对少量样本问答(Few-shot Question Answering, QA)任务,旨在提高问答模型的效率和性能。MINPROMPT通过图算法和无监督问题生成技术,从原始文本中提取最有意义的问答训练样本。

  • 句子图构建模块:利用句子图表示来结构化原始文本,通过图算法识别出覆盖最多信息的句子子集。
  • 数据选择模块:应用近似最小支配集算法来确定最小的句子集合,以覆盖所有共享实体。
  • 问题生成模块:将选定的事实句子转换成问答对,进一步转换成提示,为QA模型提供高质量、信息丰富的训练实例。
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-11-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Datawhale 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
ACL 2023奖项公布:3篇最佳论文、39篇杰出论文,多家国内机构上榜
ACL 是计算语言学和自然语言处理领域的顶级国际会议,由国际计算语言学协会组织,每年举办一次。一直以来,ACL 在 NLP 领域的学术影响力都位列第一,它也是 CCF-A 类推荐会议。今年的 ACL 大会已是第 61 届,将于 2023 年 7 月 9 日至 14 日在加拿大多伦多举行。
AiCharm
2023/07/26
7780
ACL 2023奖项公布:3篇最佳论文、39篇杰出论文,多家国内机构上榜
RAG七十二式:2024年度RAG清单
回顾2024,大模型日新月异,智能体百家争鸣。作为AI应用的重要组成部分,RAG也是“群雄逐鹿,诸侯并起”。年初ModularRAG持续升温、GraphRAG大放异彩,年中开源工具如火如荼、知识图谱再创新机,年末图表理解、多模态RAG又启新征程,简直“你方唱罢我登场”,奇技叠出,不胜枚举!
AI研思录
2025/02/20
2600
RAG七十二式:2024年度RAG清单
RAG的10篇论文-2024Q1
在大型模型的研究与工程应用领域,变化之迅猛令人瞠目,用“日新月异”来形容似乎都显得有些保守。即便是针对其中的RAG技术,自2024年伊始至今,学界就已经涌现出了很多高质量的研究论文。在这里,老码农挑选了十篇具有代表性的作品,以期对大家的探索和实践提供有益的参考与启示。
半吊子全栈工匠
2024/04/22
2.1K0
RAG的10篇论文-2024Q1
谷歌研究员 Sebastian Ruber:线下参加 ACL 2022,我可太开心了!
作者 | Sebastian Ruder 编译 | Antonio 编辑 | 陈彩娴 今年 ACL 线下召开,谷歌研究员Sebastian Ruber也到现场参会了! ACL 2022的举办地点是都柏林,Sebastian Ruber位于谷歌伦敦,过去不远。ACL之行结束后,他兴致冲冲地写下了他的参会感受,分享了他对几个学术动态的关注,包括:1)语言多样性和多模态;2)提示学习;3)AI 的下一个热点;4)他在大会中最喜欢的文章;5)语言和智能的黑物质;6)混合式个人体验。 以下AI科技评论对他的分享做了不
AI科技评论
2022/06/16
2360
谷歌研究员 Sebastian Ruber:线下参加 ACL 2022,我可太开心了!
AAAI 2024|大模型论文总结(下)
上篇介绍前20篇关于大语言模型的文章,本次将继续介绍剩下的55篇文章。(如有疏漏,欢迎大家补充)。
时空探索之旅
2024/11/19
5150
AAAI 2024|大模型论文总结(下)
最全梳理:一文搞懂RAG技术的5种范式!
本文主要回顾 RAG 技术的发展,第一部分梳理了综述和关键论文,第二部分梳理了工程实践工具。 
Datawhale
2025/02/24
1.9K0
最全梳理:一文搞懂RAG技术的5种范式!
智源开源最强语义向量模型BGE!中英文测评全面超过OpenAI、Meta
语义向量模型(Embedding Model)已经被广泛应用于搜索、推荐、数据挖掘等重要领域。
新智元
2023/09/09
6.3K1
智源开源最强语义向量模型BGE!中英文测评全面超过OpenAI、Meta
伯克利摘得最佳论文 | ACL2022奖项公布
点击 机器学习算法与Python学习 ,选择加星标 精彩内容不迷路 机器之心报道 刚刚,NLP 领域国际顶会 ACL2022 公布获奖论文信息,其中加州大学伯克利分校的增量句法表示研究被评为最佳论文。此外,最佳主题论文、杰出论文也揭晓。 ACL 是计算语言学和自然语言处理领域的顶级国际会议,由国际计算语言学协会组织,每年举办一次。一直以来,ACL 在 NLP 领域的学术影响力都位列第一,它也是 CCF-A 类推荐会议。今年的 ACL 大会已是第 60 届,将于 5 月 22-5 月 27 在爱尔兰都柏林
昱良
2022/05/18
5130
伯克利摘得最佳论文 | ACL2022奖项公布
看看HYBGRAG怎么解决半结构化场景的检索问答
这篇论文试图解决的问题是如何有效地从半结构化知识库(Semi-structured Knowledge Base, SKB)中检索相关信息以回答用户的问题。具体来说,论文关注于混合型问题(hybrid questions),这类问题需要同时利用文本信息和关系信息来正确回答。半结构化知识库由结构化知识库(例如知识图谱)和非结构化的文本文档组成,其中文本文档与知识图谱中的实体相关联。论文指出,现有的检索增强生成(Retrieval-Augmented Generation, RAG)方法和图检索增强生成(Graph RAG, GRAG)方法在处理这类混合问题时存在局限性,因此需要一种新的混合检索方法来同时利用文本和关系信息。
致Great
2024/12/27
1810
看看HYBGRAG怎么解决半结构化场景的检索问答
伯克利摘得最佳论文,陈丹琦、杨笛一等华人团队获杰出论文,ACL2022奖项公布
机器之心报道 编辑:陈萍、杜伟 刚刚,NLP 领域国际顶会 ACL2022 公布获奖论文信息,其中加州大学伯克利分校的增量句法表示研究被评为最佳论文。此外,最佳主题论文、杰出论文也揭晓。 ACL 是计算语言学和自然语言处理领域的顶级国际会议,由国际计算语言学协会组织,每年举办一次。一直以来,ACL 在 NLP 领域的学术影响力都位列第一,它也是 CCF-A 类推荐会议。今年的 ACL 大会已是第 60 届,将于 5 月 22-5 月 27 在爱尔兰都柏林举办。 2 月 24 日,ACL 2022 录用结果
机器之心
2022/05/17
5600
伯克利摘得最佳论文,陈丹琦、杨笛一等华人团队获杰出论文,ACL2022奖项公布
技术前沿综述:RAG领域的重要进展与创新亮点
在已经过去的 2024 年,RAG 的发展可以称得上是风起云涌,我们回顾全年,从多个角度对全年的发展进行总结。 首先用下图镇楼:
汀丶人工智能
2025/04/23
6460
技术前沿综述:RAG领域的重要进展与创新亮点
AAAI 2024 | 大模型(LLM)论文总结
大语言模型作为近期最火热的研究点,热度至今居高不下。特别是近期,arxiv上每个月都发表很多关于大语言模型的文章。对此,我只想吐槽一句,根本读不完。倒不如来看看在AAAI-2024会议上关于大语言模型的研究工作。经过"老字号"AAAI会议审核过的,质量是杠杠的。
时空探索之旅
2024/11/19
6150
AAAI 2024 | 大模型(LLM)论文总结
优秀的多模态大模型(LLM)资源库
在AI盛起的当下,各类AI应用不断地出现在人们的视野中,AI正在重塑着各行各业。笔者认为,如果说ChatGPT引领了AI革命的开端,那么多模态大模型一定代表着AI应用的未来。
山行AI
2023/06/26
2K0
优秀的多模态大模型(LLM)资源库
ACL2023 | Google 提出一致性自适应提示(COSP),零样本推理提升15%!
大型语言模型(LLM)在少样本、零样本情况中,都表现出了强大的性能。尽管如此,在实际应用场景中都回存在一定的限制。在少样本情况下,大模型对示例的选择比较敏感,考虑到下游任务的多样性,需要为每个任务制作标签,这会需要大量的人力。
ShuYini
2023/11/07
4860
ACL2023 | Google 提出一致性自适应提示(COSP),零样本推理提升15%!
2024年6月上半月30篇大语言模型的论文推荐
大语言模型(LLMs)在近年来取得了快速发展。本文总结了2024年6月上半月发布的一些最重要的LLM论文,可以让你及时了解最新进展。
deephub
2024/07/01
6690
2024年6月上半月30篇大语言模型的论文推荐
ChatGPT一小步,NLP范式转变一大步
来源:算法邦本文约7200字,建议阅读14分钟在本文中,我们将仔细研究这些能力是什么,大型语言模型可以提供什么,以及它们在更广泛的 NLP/ML 任务中的潜在优势是什么。 [ 导语 ]作者符尧,yao.fu@ed.ac.uk,爱丁堡大学 (University of Edinburgh) 博士生,本科毕业于北京大学;与Tushar Khot,彭昊在艾伦人工智能研究院 (Allen Institute for AI) 共同完成英文原稿;与李如寐(美团NLP中心)共同翻译为中文;感谢 Aristo teamm
数据派THU
2023/04/03
2880
ChatGPT一小步,NLP范式转变一大步
一文读懂 Agentic RAG 技术点滴
Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 提升大型语言模型(LLMs)的知识获取和生成能力的 Agentic RAG(智能增强检索生成)技术。
Luga Lee
2025/04/04
2660
一文读懂 Agentic RAG 技术点滴
为应对输出风险文本的情况,提出一种针对LLMs简单有效的思维链解毒方法
近年来,随着大语言模型(Large Language Model, LLM)在自然语言处理任务上展现出优秀表现,大模型的安全问题应该得到重视。近期的工作表明[1][2][3]。LLM在生成过成中有概率输出包含毒性的文本,包括冒犯的,充满仇恨的,以及有偏见的内容,这对用户的使用是有风险的。毒性是LLM的一种固有属性,因为在训练过程中,LLM不可避免会学习到一些有毒的内容。诚然,对大模型的解毒(detoxification)是困难的,因为不仅需要语言模型保留原始的生成能力,还需要模型避免生成一些“特定的”内容。同时,传统的解毒方法通常对模型生成的内容进行编辑[4][5],或对模型增加一定的偏置[6][7],这些方法往往把解毒任务当成一种特定的下游任务看待,损害了大语言模型最本质的能力——生成能力,导致解毒过后模型生成的结果不尽人意。
zenRRan
2023/08/22
6710
为应对输出风险文本的情况,提出一种针对LLMs简单有效的思维链解毒方法
ACL/NAACL'22 推荐系统论文梳理
https://2022.naacl.org/program/accepted_papers/
枫桦
2022/08/02
6260
ACL/NAACL'22 推荐系统论文梳理
RAG文档分块新思路:LGMGC如何提升文档分块的语义连贯性?
在**开放域问答(Open-Domain Question Answering, ODQA)**任务中,**文档分块(chunking)**过程中存在的不足。特别是在基于检索增强生成(Retrieval-Augmented Generation, RAG)模型的管道中,文档被分割成独立的块,然后通过检索过程来识别与给定查询相关的块,这些相关块与查询一起被传递给语言模型(LLM)以生成期望的响应。
致Great
2025/01/24
2840
RAG文档分块新思路:LGMGC如何提升文档分块的语义连贯性?
推荐阅读
相关推荐
ACL 2023奖项公布:3篇最佳论文、39篇杰出论文,多家国内机构上榜
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档