前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Yann LeCun:语言的有限性决定了 AI 永远无法比肩人类智能

Yann LeCun:语言的有限性决定了 AI 永远无法比肩人类智能

作者头像
AI科技评论
发布于 2022-08-26 09:34:51
发布于 2022-08-26 09:34:51
2630
举报
文章被收录于专栏:AI科技评论AI科技评论

寻找人工智能中的常识(common sense)是比关注语言更重要的任务。

整理 | 李梅、王玥

编辑 | 陈彩娴

前段时间,谷歌工程师声称自家的 AI 聊天机器人 LaMDA  具有了意识,引发了一片混乱。

LaMDA 是一种大型语言模型(LLM),能够基于任何给定文本预测出可能出现的下一个单词。许多对话在某种程度上都很容易预测,所以这种系统可以推动并保持对话流畅地进行。LaMDA 在这一点上表现非常出色,以至于这位叫 Blake Lemoine 的工程师开始怀疑它产生了类人的知觉。

随着 LLM 越来越普遍,变得越来越强大,人类对 LLM 的看法也越发不同。的确,如今的系统已经超越了许多“常识”语言推理的基准,但很多系统仍然缺乏常识,很容易出现胡说八道、不合逻辑和危险的建议。所以这就引出了一个很矛盾的问题:为什么这些系统如此地智能,同时又如此地具有局限性?

最近,图灵奖得主 Yann LeCun 与纽约大学的博士后研究员 Jacob Browning 在 Noema 杂志上共同发表了一篇文章,对这个问题给出了回答:

根本问题不在于 AI 本身,而是在于语言的有限性。

他给出了这样的论证:

1.语言只承载了人类全部知识的一小部分。

2.大部分人类知识和所有动物的知识都是非语言的(非象征性的)。

3.因此大型语言模型无法接近人类水平的智能。

显然,LeCun 认为我们应当摒弃关于语言与思维之间关系的旧假设,即语言与思维具有同一性。在他看来,这些语言系统天生就是「肤浅」的,即使是地球上最先进的 AI,也永远不可能获得人类所具有的全部思维。

这种观点实际上否认了图灵测试的有效性。图灵测试的基础是,如果一台机器说出它要说的一切,就意味着它知道自己在说什么,因为知道正确的句子以及何时使用这些句子会耗尽它们的知识。

LeCun 首先从语言哲学的角度谈起,来阐释图灵测试的思想基础及其不合理之处。

1

AI 并不理解自己在说什么

19 世纪和 20 世纪的语言哲学认为,“知道某事”就意味着能够想出一个正确的句子,并知道在我们所知的真理大网络中,它是如何与其他句子联系起来的。按照这种逻辑,理想的的语言形式便是一种数理逻辑的纯形式化语言,它由严格的推理规则连接的任意符号组成。但如果你愿意花点力气去消除歧义和不精确性,那使用自然语言也可以。

语言哲学家维特根斯坦曾说:“真命题的总和就构成了自然科学的整体。”长期以来,人们都深信,逻辑数学、形式化是语言的必要基础。在 AI 领域,这种立场的体现便是符号主义:我们所能知晓的一切都可以写在百科全书中,所以只要阅读所有内容就能让我们对所有事物都有全面的了解。在早期,这种根据逻辑规则以不同的方式将任意符号绑定在一起的操作成了人工智能的默认范式。

在这种范式下,AI 的知识就是由大量的真实语句数据库组成,这些句子通过人工逻辑相互连接起来。判断 AI 是否具有智能的标准,就是看它是否能在正确的时间“吐”出正确的句子,也就是看它能否以恰当的方式来操纵符号。这便是图灵测试的基础。

但 LeCun 认为,将人类专业知识提炼成一套规则和事实证明是非常困难、耗时且昂贵的。虽然为数学或逻辑编写规则很简单,但世界本身却是非常模棱两可的。

所以在 LLM 问题上,LeCun 并不认同图灵测试所基于的思想,他认为:机器可以谈论任何事情,这并不意味着它理解自己在说什么。因为语言并不会穷尽知识,相反,语言只是一种高度具体且非常有限的知识表征。无论是编程语言、符号逻辑还是自然语言,它们都具有特定类型的表征模式,都擅长在极高的抽象层次上表达离散的对象和属性以及它们之间的关系。

所有的表征模式都涉及对关于某事信息的压缩,但压缩所留下和遗漏的内容各不相同。语言的表征模式处理的是更具体的信息,例如描述不规则的形状、物体的运动、复杂机制的功能或绘画时细致入微的笔触,如果要描述一个冲浪事件时,还要考虑特定语境中的动作。

另外还有一些非语言的表征方式,它们可以用一种更易于理解的方式来传达信息,比如象征性的知识,包括图像、录音、图表和地图等等。在经过训练的神经网络中发现的分布式知识也是如此。

2

语言的有限性

LeCun 认为,语言表征图式的特点是它传递的信息非常少,这也是它具有局限性的原因。

从信息传输的角度看,语言传输信息的带宽非常低:孤立的单词或句子,没有上下文,传达的内容很少。在语言学家看来,自然语言也从来不是一种清晰明确的交流工具,由于同音异义词和代词的数量众多,很多句子都非常有歧义。

那么,自然语言是不是就非常妨碍我们表达自己的思想呢?显然不是。LeCun 指出,人类并不需要完美的交流工具,因为我们对许多非语言有共同的理解。我们对一个句子的理解通常取决于我们其上下文的更深入理解,从而推断出这个句子所要表达的含义。

在谈话中,对话者通常有相同的知识背景。比如你和朋友谈论眼前正在播放的足球比赛,或者一个人在其扮演的特定社会角色下进行某种目标明确的交流,如消费者从服务员那里点菜。

在阅读情境中也是如此,研究表明,儿童对当前话题的背景知识的多少是理解一个句子或段落的关键因素。而 AI 在这种常识性语言测试中的表现并不好。

LeCun 由此指出,单词和句子的所在语境是 LLM 的核心。神经网络通常将知识表示为一种叫做「know-how」的能力,即掌握高度上下文敏感的模式并找到规律(具体的和抽象的)的熟练能力。在特定任务中,以不同的方式处理输入,需要应用这些规律。

具体到 LLM 中,这涉及系统在现有文本的多个层次上的识别模式,既可以看到单个单词在段落中是如何连接的,也可以看到句子之间如何连接在一起以构成更大的段落。所以,LLM 对语言的掌握一定是上下文相关的。它对每个单词的理解不是根据其字典含义,而是根据它在各种句子中的作用来理解。

所以,LLM 应当是什么样?LeCun 的观点是,LLM 的训练目标应当是让它可以了解每个句子的背景知识,观察周围的单词和句子来拼凑出正在发生的事情。这样它就可以无限可能地使用不同的句子或短语作为输入,并以合理的方式来继续对话或续写文章。在人类写下的文字段落上进行训练的系统,会经常相互交谈,所以它们应当具备展开一段有趣对话所需的一般性理解。

3

LLM 理解粗浅

不少人不愿说 LLM 的行为是「理解」,也不愿意认为LLM是「有智能的」,批评者们认为 LLM 只是在进行某种模仿,这样想的确有道理。因为 LLM 对语言的理解虽然乍一看很厉害,但实际却很肤浅。这种粗浅的理解似曾相识:教室里的学生个个都在高谈阔论,却都不知道自己在说什么——他们只是在模仿教授或自己阅读的文本说话,模仿得很像而已。

这恰恰体现了真实世界的属性:我们常常不知道自己其实所知甚少,尤其是基本没从语言里获得什么知识。

LLM 对一切事物都抱有这种肤浅的认识。像 GPT-3 这样的系统通过屏蔽句子/文章中可能出现的单词,让机器猜测最有可能出现的单词,最后再纠正错误的猜测。这个系统最终会被训练得能够熟练猜测最有可能出现的单词,于是乎便成为了一个有效的预测系统。

但是,从语言上解释一个概念的能力不同于实际使用该概念的能力。系统可以解释如何进行长除法运算,但却无法完成长除法运算;系统也能够解释哪些词是不应该说出口的冒犯词汇,然后毫无压力地说出口。语境知识体现在背诵语言知识的能力上,却没有体现在处理问题的能力上。

而对语言使用者来说,处理问题的能力才是必不可少的,但是能够处理问题并不意味着他们具备相关的语言技能。这个情况在很多地方都有体现,比如科学课会要求学生演讲,但学生得到的分数主要还是基于他们的实验效果。尤其是在人文学科之外,能够谈论某事往往只停留在表面,还是让事情顺利运转起来的技能更有用、更重要。

一旦我们深入到表面以下,就更容易看到系统的局限性:它们的注意力持续时间和记忆大致只够一段文字。如果我们是在跟 LLM 对话,那这一点很容易被忽略,因为在对话中人倾向于只关注最后一两个回复和即将获得的回复。

但是,处理更复杂的对话的技能,比如积极倾听、回忆之前的对话、坚持谈论一个话题来表明某个特定观点,同时避开干扰等等,这些技能都需要系统有更强的注意力和更大的记忆容量。这便进一步削弱了系统的理解能力:我们可以轻易采用每隔几分钟换种观点、换说另一种语言等方式去欺骗系统。如果回答你必须得回溯太多步骤的话,系统就会从头开始,接受和旧评论一致的新观点,跟着你换一种语言或者承认自己相信你说的任何话。要形成一种连贯的世界观所必需的理解远远超出了系统的能力范围。

4

语言之外

放弃「所有知识都是语言知识」的错误观点,可以让我们意识到有多少知识是非语言知识。书籍中记载了许多我们可以使用的信息,说明书、论文图表、城市地图也有同样的用处。除了文字体现出的信息,自然特征、人造产品、动物和人类的心理、生理特点都充满了可以被人类利用的信息。

这说明在语言之外,这个世界本身就向人类展示了大量的信息,可供人类探索并使用。同样的,社会习俗和割裂仪式可以仅仅通过模仿向下一代传递。人类的很多文化知识都是标志性的,只是看着就可以传递下去。这些微妙的信息模式很难用语言表达,但收到信息的人仍然可以理解。就此可以看出,非语言理解对于人类的发展来说十分重要。

LeCun 指出,被记录在文字中的人类知识并没有很多,在灵长类动物的交流中也几乎捕捉不到非人类灵长类动物的知识。

我们之所以认为语言重要,是因为语言可以用小格式传达很多信息,尤其是在印刷术和互联网出现之后,语言可以复制信息并广泛传播。但是压缩语言中的信息并不是没有代价的,这需要我们花费大量的精力来解码信息密集的段落。比如,人文学科的课程可能需要学生做大量的课外阅读,或者大量的课堂时间都得花在复习困难的文章上等等。虽然信息提供到手上了,但是要想对信息进行深入的理解仍然是很耗时的。

这也就解释了为什么经过语言训练的机器能知道的这么多却又懂得这么少。机器获得了人类知识的一小部分,但这一小部分人类知识可以是关于任何事情的。这就有点像镜子了,系统给人一种很深的错觉,又可以反射几乎任何东西。但问题是,镜子只有一厘米厚, 如果我们试图进去探索,就会撞到脑袋 。

可以看出,人类有了深刻的非语言理解,才使得语言有用武之地。正是因为我们对世界有深刻的理解,所以我们可以很快地理解别人在谈论什么。这种更广泛的、情境敏感的技能是人类自古就有的基本知识。

非语言理解让感知得以出现,并使得感知能够得以留存和繁荣。所以对于 AI 研究人员来说,寻找人工智能中的常识(common sense)是比关注 AI 语言更重要的任务。

最后,LeCun 总结, LMM 没有稳定的身体,也不能持久地感知世界,所以它们只能更多地关注语言,因此 LLM 的常识总是肤浅的。我们的目标是让人工智能系统关注所谈论的世界,而不是语言本身——虽然 LLM 并不理解这两者的区别。我们无法仅仅通过语言来达到深刻的理解,经过对 LLM 的研究,我们可以看明白,仅仅从语言本身能了解的东西是多么少。

参考链接:

https://www.noemamag.com/ai-and-the-limits-of-language/

更多内容,点击下方关注:

扫码添加 AI 科技评论 微信号,投稿&进群:

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-08-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Yann LeCun:大模型方向错了,智力无法接近人类
选自Noema Magazine 作者:Jacob Browning、Yann LeCun 机器之心编译 编辑:泽南、小舟 你训练大模型用的是语言,还想获得 AGI?那肯定是永远也不行的。 「语言只承载了所有人类知识的一小部分;大部分人类知识、所有动物知识都是非语言的;因此,大语言模型是无法接近人类水平智能的,」这是图灵奖得主 Yann LeCun 对于人工智能前景的最新思考。 昨天,他与纽约大学博士后 Jacob Browning 合著的新文章发表在《NOEMA》上,引发了人们的讨论。 在文章中,作
机器之心
2022/08/25
2550
Yann LeCun:大模型方向错了,智力无法接近人类
LeCun再泼冷水:只会看书的语言模型永远无法实现「类人智能」
自去年ChatGPT发布后,业内外都涌现出了一股对大型语言模型的狂热情绪,甚至有谷歌员工宣称公司内部的语言模型有了意识。
新智元
2023/09/09
2320
LeCun再泼冷水:只会看书的语言模型永远无法实现「类人智能」
GPT-4的研究路径没有前途?Yann LeCun给自回归判了死刑
机器之心报道 机器之心编辑部 Yann LeCun 这个观点的确有些大胆。 「从现在起 5 年内,没有哪个头脑正常的人会使用自回归模型。」最近,图灵奖得主 Yann LeCun 给一场辩论做了个特别的开场。而他口中的自回归,正是当前爆红的 GPT 家族模型所依赖的学习范式。 当然,被 Yann LeCun 指出问题的不只是自回归模型。在他看来,当前整个的机器学习领域都面临巨大挑战。 这场辩论的主题为「Do large language models need sensory grounding for m
机器之心
2023/03/29
3680
GPT-4的研究路径没有前途?Yann LeCun给自回归判了死刑
图灵奖得主Hinton:我已经老了,如何控制比人类更聪明的AI交给你们了
由于并不理解为啥“AI会造成风险”,吴恩达最近开启了一个对话系列,去找两名图灵奖得主聊聊:
量子位
2023/08/03
2250
图灵奖得主Hinton:我已经老了,如何控制比人类更聪明的AI交给你们了
图灵测试已死!ChatGPT通过人类考试也不算,超强AI评估新秀「逻辑谜题」
但是,根据研究人员今年 5 月的一份报告,GPT-4在一类图案的测试中正确率仅为1/3,而在另一类图案中正确率仅为3%。
新智元
2023/09/09
3880
图灵测试已死!ChatGPT通过人类考试也不算,超强AI评估新秀「逻辑谜题」
ChatGPT爆火,LeCun心态崩了!称大语言模型是邪路,Meta模型3天惨遭下线
---- 新智元报道   编辑:编辑部 【新智元导读】最近,LeCun连续发推,舌战各位推友,疯狂diss大语言模型是邪路,也为自家匆忙下线的Galactica酸了一把ChatGPT。而LeCun态度的大反转,也让曾经的对头马库斯喜出望外。不仅频频转发LeCun推文,还高调宣布两人的「世纪大和解」。 这两天,图灵奖得主Yann LeCun心态有些崩了。 自从ChatGPT大火之后,微软凭着OpenAI腰板挺得很直。 被啪啪打脸的谷歌,也不说什么「声誉风险」了。 所有旗下的语言模型,无论是LaMDA,还
新智元
2023/02/24
4200
ChatGPT爆火,LeCun心态崩了!称大语言模型是邪路,Meta模型3天惨遭下线
在一篇由 GPT-3 生成的论文中,ChatGPT 重现了图灵测试的原始论文
以 ChatGPT 为代表的文本生成的兴起,正促使许多研究人员寻求一个比原始版本更具挑战性的图灵测试。
AI科技评论
2023/01/03
1.4K0
在一篇由 GPT-3 生成的论文中,ChatGPT 重现了图灵测试的原始论文
Meta首席AI科学家:抱歉 大语言模型无法达到人类智力水平
如果这一结论出自外行之口,我们一笑了之,但它出自Meta首席AI科学家Yann LeCun之口,那就值得好好倾听了。
大数据文摘
2024/05/29
2090
Meta首席AI科学家:抱歉 大语言模型无法达到人类智力水平
ChatGPT已打破图灵测试,新的测试方法在路上
全球最佳的人工智能系统可以通过难度较大的考试,写出有人类感染力的文章,还能和人类一样流畅地聊天,以至于很多人无法辨别它们的输出是否为人类所写。那么,它们不能做什么呢?解决简单的视觉逻辑谜题。
生信宝典
2023/09/12
4080
ChatGPT已打破图灵测试,新的测试方法在路上
LeCun最新专访:为什么物理世界终将成为LLM的「死穴」?
在人工智能领域,很少有像 Yann LeCun 这样的学者,在 65 岁的年龄还能高度活跃于社交媒体。
机器之心
2024/03/18
1820
LeCun最新专访:为什么物理世界终将成为LLM的「死穴」?
Yann LeCun最新万字演讲:致力于下一代AI系统,我们基本上不做LLM了
Yann LeCun 最新哈德逊论坛演讲:仅通过文本训练,LLM 永远不会达到接近人类水平的智能。所以现在 Meta 已经转向了更长期的下一代 AI 系统研究,基本不再专注于 LLM 了。
Datawhale
2024/10/21
2390
Yann LeCun最新万字演讲:致力于下一代AI系统,我们基本上不做LLM了
【福布斯】O‘reilly人工智能大会,LeCun 等解读人工智能12大痛点
【新智元导读】如今人工智能发展到底处于何种状态,面临哪些难点,未来发展潜力如何?参加了O‘reilly人工智能大会的行业专家Gll Press带来了他的12个观察。他提取的观点主要来自Peter Norvig、Yann LeCun等顶级人工智能专家,另外,还有来自微软、英伟达和艾伦人工智能研究院的主管级专家。12个观察包括: AI是黑箱;AI具有高技术难度;无人车可能使开车变成人的业余爱好;AI需考虑文化和背景——训练影响学习;AI不会取代人的所有工作;AI不会使人类灭亡;AI不是魔法,深度学习很有用,但有
新智元
2018/03/26
7320
Yann LeCun:当人工智能系统不再需要监督学习时,下一场 AI 革命就来了
图灵奖得主、Meta AI 首席科学家 Yann LeCun 近日在接受 IEEE Spectrum 采访时表示,自监督学习可以用来构建元宇宙,甚至可能打造人类水平的 AI。
深度学习与Python
2022/03/23
2640
GPT-4能「伪装」成人类吗?图灵测试结果出炉
为了解答这个问题,图灵设计了一个能间接提供答案的模仿游戏。该游戏的最初设计涉及到两位见证者(witness)和一位审问者(interrogator)。两位见证者一个是人类,另一个是人工智能;他们的目标是通过一个纯文本的交互接口说服审问者相信他们是人类。这个游戏本质上是开放性的,因为审问者可以提出任何问题,不管是关于浪漫爱情,抑或是数学问题。图灵认为这一性质能够对机器的智能进行广泛的测试。
机器之心
2023/11/02
4140
GPT-4能「伪装」成人类吗?图灵测试结果出炉
【Science】超越深度学习300倍, Vicarious发布生成视觉模型,LeCun批“这就是AI炒作的教科书”
【新智元导读】最近大家都在探索“超越深度学习”的方法,“美国版DeepMind” Vicarious 近日在Science上发布的一项研究,使用不同于深度学习的方法,将数据使用效率提升了300多倍,“对于未来的通用人工智能有重要意义”。该研究称,使用这种新的技术,他们攻破了网站常见的验证码防御,相当于通过了“反向图灵测试”。LeCun对这家公司和他们的研究提出了尖锐的批评,说“这是AI炒作教科书式的例子”。不过,支持Vicarious 的人可不少:马斯克、扎克伯格和贝佐斯都是其投资人。 总部位于旧金山的人工
新智元
2018/03/21
9310
【Science】超越深度学习300倍, Vicarious发布生成视觉模型,LeCun批“这就是AI炒作的教科书”
LeCun再爆金句:ChatGPT?连条狗都比不上!语言模型喂出来的而已
这句话来自本周四LeCun在Vivatech上和Jacques Attalie的一场辩论,可谓精彩纷呈。
新智元
2023/08/05
1820
LeCun再爆金句:ChatGPT?连条狗都比不上!语言模型喂出来的而已
吴恩达、Hinton最新对话!AI不是随机鹦鹉,共识胜过一切,LeCun双手赞成
AI「教父」Geoffrey Hinton和吴恩达就人工智能和灾难性风险进行了一次深度的隔空对话。
新智元
2023/08/05
2940
吴恩达、Hinton最新对话!AI不是随机鹦鹉,共识胜过一切,LeCun双手赞成
Bengio、LeCun 等人联名发布白皮书:智能的本质是感觉运动能力,AI 迎来具身图灵测试大挑战
大数据文摘授权转载自AI科技评论 作者 | AI 科技评论 编辑 | 陈彩娴 历史上,神经科学一直是人工智能发展的关键驱动力和灵感来源,特别是视觉、基于奖励的学习、与物理世界的互动以及语言等人类和其他动物非常擅长的领域,人工智能曾借助神经科学在这些领域取得长足进步。 但近年来,人工智能的研究方式似乎正在远离神经科学,与此同时,人工智能在追赶人类智能的路上困难不断。在此背景下,一股回归神经科学的人工智能热潮正在形成。 近日,一份白皮书发出了“NeuroAI 将催化下一代人工智能革命”的宣言。 这份以“Tow
大数据文摘
2023/04/10
2380
Bengio、LeCun 等人联名发布白皮书:智能的本质是感觉运动能力,AI 迎来具身图灵测试大挑战
LeCun被痛批:你把Meta搞砸了!烧掉千亿算力,自曝折腾20年彻底失败
凭借着GPT/o系列、Gemini 2.5、Claude的强大能力,OpenAI、谷歌、Anthropic纷纷在AI大战中各领风骚。
新智元
2025/04/21
970
LeCun被痛批:你把Meta搞砸了!烧掉千亿算力,自曝折腾20年彻底失败
人工智能领域最著名的 4 大测试
本篇和大家一起来探究这些知名测试的背后,包括设计原理、实施方法、评估标准等,在这些指标的启示下,将进一步了解人工智能领域 AI 智体的进展与潜力~~
掘金安东尼
2024/03/13
2.9K0
人工智能领域最著名的 4 大测试
推荐阅读
Yann LeCun:大模型方向错了,智力无法接近人类
2550
LeCun再泼冷水:只会看书的语言模型永远无法实现「类人智能」
2320
GPT-4的研究路径没有前途?Yann LeCun给自回归判了死刑
3680
图灵奖得主Hinton:我已经老了,如何控制比人类更聪明的AI交给你们了
2250
图灵测试已死!ChatGPT通过人类考试也不算,超强AI评估新秀「逻辑谜题」
3880
ChatGPT爆火,LeCun心态崩了!称大语言模型是邪路,Meta模型3天惨遭下线
4200
在一篇由 GPT-3 生成的论文中,ChatGPT 重现了图灵测试的原始论文
1.4K0
Meta首席AI科学家:抱歉 大语言模型无法达到人类智力水平
2090
ChatGPT已打破图灵测试,新的测试方法在路上
4080
LeCun最新专访:为什么物理世界终将成为LLM的「死穴」?
1820
Yann LeCun最新万字演讲:致力于下一代AI系统,我们基本上不做LLM了
2390
【福布斯】O‘reilly人工智能大会,LeCun 等解读人工智能12大痛点
7320
Yann LeCun:当人工智能系统不再需要监督学习时,下一场 AI 革命就来了
2640
GPT-4能「伪装」成人类吗?图灵测试结果出炉
4140
【Science】超越深度学习300倍, Vicarious发布生成视觉模型,LeCun批“这就是AI炒作的教科书”
9310
LeCun再爆金句:ChatGPT?连条狗都比不上!语言模型喂出来的而已
1820
吴恩达、Hinton最新对话!AI不是随机鹦鹉,共识胜过一切,LeCun双手赞成
2940
Bengio、LeCun 等人联名发布白皮书:智能的本质是感觉运动能力,AI 迎来具身图灵测试大挑战
2380
LeCun被痛批:你把Meta搞砸了!烧掉千亿算力,自曝折腾20年彻底失败
970
人工智能领域最著名的 4 大测试
2.9K0
相关推荐
Yann LeCun:大模型方向错了,智力无法接近人类
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档