据站长之家 11 月 24 日报道,近期,Meta 首席人工智能科学家杨立昆(YannLeCun)在推特上引发了关于大语言模型(LLM)推理能力的讨论,强调 LLM 缺乏真正的规划推理能力,其涌现能力实际上是上下文学习的结果。研究表明,针对复杂规划任务,如国际规划大赛中的问题,LLM 的性能较差,其推理能力在特定领域受限,而涌现能力主要体现在简单任务和事先知道答案的情境中。
文章还提到,对于 LLM 的规划任务研究存在一些问题,包括领域知识和实际执行计划的混淆。研究团队通过混淆规划问题中的动作和对象的名称来降低近似检索的有效性,挑战 LLM 的经验表现。
领取专属 10元无门槛券
私享最新 技术干货