前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >带你读一篇论文,彻底搞明白,大模型真的能推理吗?

带你读一篇论文,彻底搞明白,大模型真的能推理吗?

原创
作者头像
老码小张
发布2024-08-17 10:59:49
3590
发布2024-08-17 10:59:49
举报
文章被收录于专栏:玩转全栈

你有没有想过,大型语言模型(像GPT-4这种)真的能理解我们说的意思,甚至还能推理出背后的因果关系吗?最近看到一篇论文:地址在此:

https://arxiv.org/pdf/2408.08210

,这篇论文让我彻底明白大模型所谓的推理能力来自哪里,以及怎么利用好大模型这有限的推理能力,好今天咱们就聊聊,这些所谓的“智能”到底有多聪明。

大模型真的会推理吗?

首先,我们得搞清楚什么是推理。推理,简单说就是从已知信息得出新的结论。比如,你看到地上有水,就可能推测刚才下过雨。那么问题来了,大模型能做类似的事吗?

论文的观点是,这些模型虽然能模仿人类的语言表达,看起来像是在推理,但其实它们背后并没有真正的因果逻辑。就像是,你跟朋友聊电影,他随口说了几句经典台词,你会觉得他对那部电影很有研究,但其实他只是背过几句台词而已。大模型也是如此,它们更多是在模式匹配,而不是像人类一样进行深层次的逻辑推理

因果推理的可能性——模型的“概率”思维

虽然大模型不具备真正的推理能力,但它们在处理因果关系时却表现得很“聪明”。为什么这么说呢?论文提到,大模型可以通过大量数据的训练,来学会某些因果关系的“概率性”表达。比如,在模型“看到”无数次“下雨后地面湿了”这种场景后,它也会猜测下雨和地面湿了有很大的关联性。

不过,得注意的是,这种概率性推理和我们通常理解的逻辑推理不太一样。它更多是基于模式识别的结果,而非真正理解事件之间的因果关系。所以,大模型在回答问题时,往往是在“猜”而不是“知道”

如何利用大模型的这种“伪推理”能力?

虽然大模型的推理能力还比较“初级”,但我们可以利用它的“概率性推理”来解决一些实际问题。比如在日常生活中,你想知道某个事件的可能原因时,可以问问这些大模型,它们能给出一个基于数据的概率答案,虽然不一定是最准确的,但也有参考价值。

举个例子,你可能想知道为什么网站流量突然下降,模型可能会建议你检查一下是不是最近内容更新不频繁、或者竞争对手有大动作。它可能说不出具体原因,但却能引导你朝某些方向去思考。

思考:如何正确使用大模型的推理能力?

在实际使用大模型时,咱们需要清楚它的优点和局限。你可以把它当作一个超级词典或百科全书,能快速查找大量信息,还能给你提供一些“智能”建议。但在面对复杂的因果关系时,还是要靠咱们自己动脑筋,别把模型的回答当作金科玉律。

就比如在开发软件时,如果模型给了你一段代码提示,别急着照搬,先自己分析一下它的逻辑是否符合你的需求,这个往往有相关背景的人一看就知道是否合理。如果模型告诉你一个商业决策的“建议”,也别马上采纳,得结合实际情况再做判断。所以,我们更应该把大模型当成我们的助手,而不是直接替代我们

虽说,大型语言模型的推理能力还处于“半瓶水”的阶段。它们能模仿我们说话,甚至看起来很“聪明”,但背后并没有真正的因果推理能力。不过,合理的利用它们的“概率性推理”,是可以帮我节省大量宝贵的时间。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 大模型真的会推理吗?
  • 因果推理的可能性——模型的“概率”思维
  • 如何利用大模型的这种“伪推理”能力?
  • 思考:如何正确使用大模型的推理能力?
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档