
信息量真的...太大了。老铁们,这是什么神仙阵容?
你敢信吗,Geoffrey Hinton、Yann LeCun、Yoshua Bengio——这三位图灵奖“AI教父”凑齐了。
还没完。
桌上还坐着:Nvidia的“教主”黄仁勋(Jensen Huang)、“GPU架构大神”Bill Dally,还有“ImageNet之母”李飞飞(Fei-Fei Li)。
这六个人,随便拎一个出来都能震动AI行业,现在他们居然坐在一张桌子上聊天! 这场面,简直就是AI界的“复仇者联盟”集结。

起因是他们刚拿下了2025年的伊丽莎白女王工程奖(QEP),这个奖项份量极重,就是为了表彰他们对当今AI产生的“独一无二的重大影响”。所以《金融时报》就攒了这个局,让他们放开了聊。
我把整个万字实录扒下来了,一个字一个字啃完。怎么说呢... 这不只是聊天,这简直是在给我们这些凡人划重点、泼冷水、指方向。
他们聊了啥?聊了各自的“顿悟”时刻、聊了现在这个AI热潮到底是不是泡沫、聊了AGI(通用人工智能)到底还有多远。
剧透一下:大佬们内部“打”起来了。不废话,先上干货。
II.【万字实录】大佬们的原味对话
内容极度硬核,建议收藏慢慢看。我按时间顺序和主题给你们分好段了。
主持人:我想听听你们每个人在职业生涯中那种“顿悟”时刻,那个让你觉得对你做的工作有影响,或者是一个转折点,促使你走上今天这条路的瞬间。…我们要不要从你开始,Yoshua?
Yoshua Bengio:
谢谢,是的,很高兴跟你分享。我想说两个时刻。第一个是在我读研的时候…读了Hinton早期的一些论文,觉得哇,太激动了。或许有几个简单的原理…能帮我们理解人类智能,帮我们造出智能机器。 第二个时刻是在三年前,ChatGPT刚出来的时候,我突然意识到,糟糕,我们到底在干什么?呃,如果我们造出能理解语言、有目标的机器,但我们又控制不了它们的目标,会发生什么?如果它们比我们还聪明呢?如果有人滥用这种力量呢?所以我决定彻底转变我的研究方向和职业生涯,尽我所能去应对这个问题。
Bill Dally:
我也给你说两个时刻。第一个是在90年代末,我在斯坦福,试图解决当时所谓的“内存墙”问题。也就是说,从内存中访问数据在能耗和时间上远比运算本身要昂贵。这让我想到把计算组织成这些核心,通过流连接起来…基本上这就是后来被称为流处理,最终发展成GPU计算的开端。 第二个重要时刻是,我和同事Andrew Ing(吴恩达)在斯坦福吃早餐,当时他在谷歌用1.6万个CPU,通过一种叫神经网络的技术在互联网上找猫…他基本上说服了我这是一项很棒的技术。所以我和Brian Kenzo在Nvidia用48个GPU重复了这个实验。当我看到结果时,我完全确信这正是Nvidia应该做的事情。
主持人:杰夫(Geoffrey Hinton),跟我们说说你的工作吧。
Geoffrey Hinton:
有一个特别重要的时刻,大概是在1984年,我尝试用反向传播来预测一句话中下一个词。那是一个非常小的语言模型,结果发现它学到了词义的一些有趣特征…我觉得它是这些大型语言模型的前身。基本原理是一样的,只是规模很小。之所以花了40年,是因为当时我们没有足够的计算能力,也没有足够的数据,而且我们当时还不知道这些原因。
主持人:这就顺理成章地引出了Jensen(黄仁勋)。40年里我们没计算力,而现在你正在打造它。
Jensen Huang:
嗯,就我个人职业来说…大概是在2010年左右,差不多同时有三个不同实验室的研究人员联系了我们。当时,多伦多大学的研究人员(Hinton团队)联系了我们,纽约大学的研究人员(LeCun团队)也联系了我们,斯坦福的研究人员(Ng团队)同样在同一时间联系了我们。我当时就看到了后来发展的早期迹象。 …(我们)发现这软件特别有效…深度学习网络…感觉模式特别像(设计芯片)…Nvidia架构的关键在于,一旦你能让程序在GPU上跑得顺畅,事情就变得不一样了。 …你知道,深度学习模型之所以这么有效,这个发现真的是个火花。剩下的基本上就是工程上的不断扩展。
Fei-Fei Li (李飞飞):
好的,我也有两个瞬间想分享。大概在2006年,我正痴迷于解决视觉识别的问题。我们在机器学习里遇到了一个难题,叫做泛化能力。我试过各种算法…但我和我的学生发现,关键问题是数据不够。你看,人类早期就接触了大量数据,而我们的机器却一直缺数据。所以我们当时决定做一件疯狂的事,花三年时间打造一个互联网规模的数据集(ImageNet)。当时的顿悟是“大数据推动机器学习”。 第二个顿悟是在2018年在谷歌云, 我意识到AI将影响到每一个人和各个行业…如果人类真的要进入一个人工智能时代,那指导我们前进的框架是什么?于是我回到斯坦福当教授,创办了以人为本的人工智能研究所…确保人性和人的价值始终被置于核心位置。
Yann LeCun:
我从很早以前,还在读本科时就对人工智能和“自我组织”这个概念特别感兴趣。我开玩笑说,这大概因为我要么太笨要么太懒,没法从零开始真正造出一个智能机器,所以最好让它自己训练。我深受Hinton论文的启发,我们都执着于攻克“训练多层神经网络”这个当时的瓶颈。不过在80年代末,我俩有过争论:我当时觉得唯一成熟的方法是监督学习——你给机器看一张图,然后告诉它答案;他却坚持说,唯一能让我们取得进展的是无监督训练。
到了2000年代中期,我和Yoshua重新激发了大家对深度学习的兴趣,我们押注的正是自监督学习——现在的大型语言模型(LLM)就是这么训练的,通过预测下一个词来学习。但说实话,我得“怪”李飞飞,她弄出了ImageNet这个超大的、有标签的数据集。结果监督学习的效果比预期好太多,于是整个研究圈(包括我)都暂时放弃了自监督的计划,一头扎进了监督学习里。直到大概2016、17年,我才开始告诉大家,这条路走不通,我们必须回到自监督学习上来。LLM就是最好的例子。
主持人:这不仅仅是技术创新了,对吧?这是个巨大的商业爆发…Jensen,我先问你…你担心吗?…会不会有个清算,泡沫会破裂…关于AI带来的需求,最大的误解是什么?
Jensen Huang:
嗯,在互联网泡沫时期,大部分铺设的光纤都是“暗”的,意思是行业铺了远远超过需求的光纤。现在几乎所有的GPU都在运行并被使用。 所以我觉得重要的是退一步,弄清楚AI到底是什么。对很多人来说,AI就是ChatGPT和图像生成…那只是它的一个应用而已。AI还有更多的东西。 …现在我们有了一个行业,需要大量计算才能产出真正有价值且需求量大的东西。我们创造了一个需要工厂的行业。这就是为什么我一直提醒大家,AI需要工厂来生产这些token,来制造智能。 你回头看看过去的软件,过去的软件就是工具,是人用的。而这次,AI是增强人类智能的东西。所以,它解决了劳动力问题,解决了工作问题,它能真正完成工作。
主持人:所以,你的意思是不是,这不是个泡沫。
Jensen Huang:
我觉得我们才刚刚开始智能化的建设。事实上,现在大多数人还没怎么用AI。将来不久,几乎我们做的每件事,每时每刻,都离不开AI。
Bill Dally:
我觉得主要有三个趋势能说明现在的情况。第一,模型变得更高效了…第二,模型也在不断进步…第三…我觉得我们才刚刚开始探索 AI 的应用…我们现在可能才满足了不到1%的需求。所以我不认为这是泡沫。
Fei-Fei Li:
…别忘了,人工智能总体上还是个非常年轻的领域,对吧?…人工智能也才不到七十年…人类的智能不仅仅是语言能力…我一直在研究空间智能,这其实是感知和行动之间的关键纽带。人类和动物在感知、推理、互动…远远超出了语言的范畴。可是即使是现在最强大的系统,在最基本的空间智能测试上也经常表现不佳。所以从这个角度来看,还有很多前沿领域等待我们去征服。
Yann LeCun:
…但也有一种泡沫的感觉,就是现在大语言模型的这种模式似乎会被推到了拥有和人类一样智能的地步,但我个人不相信。我们还需要一些重大突破,才能造出真正拥有…那种智能的机器。现在的机器人连猫都不如聪明,对吧?所以我们还缺了很关键的一环。这也是为什么人工智能的进展,不只是靠更多的基础设施、更多的数据…其实这是个科学问题。
主持人:关于人类水平的智能…你觉得得多久我们才能达到那个阶段…大概还有几年?
Fei-Fei Li:
这不会是某个突然发生的事件。…机器的某些部分会超越人类智能… ——我们什么时候能超越人类智能? ——部分已经到了。我们有多少人能认出22000个物体?有多少成年人能翻译一百种语言?那更难。 …我觉得我们应该更细致、更基于科学事实,就像飞机能飞,但飞得不像鸟一样。机器智能会做很多强大的事情,但人类智慧依然有它独特而重要的位置。
Jensen Huang:
…我觉得,第一,我们已经达到了;第二,另一点是,这其实没那么重要。…我们肯定会去应用它…这项技术会越来越好,我们也会用它去解决很多非常重要的问题。
Geoffrey Hinton:
你自己决定吧。如果你把问题稍微改一下,说多久以后你和这台机器辩论,它总能赢,我觉得这肯定会在20年内实现。我们还没到那个阶段,但肯定会到。
Bill Dally:
我有点同意Jensen的观点,觉得这个问题问得不对。因为我们的目标不是造出能取代人类…但我们的目标是打造能增强人类能力的人工智能。我们想做的是补充人类不擅长的东西。人类没法识别两万个物体,大多数人也解决不了奥数题。嗯,所以我们造AI来做这些。这样人类就能专注于独特的人类技能,比如创造力、同理心,以及理解如何跟别人相处。
Yoshua Bengio:
不过我想说,我有不同看法。我觉得迟早我们能造出几乎能做所有人类能做的事的机器。现在在空间感知和机器人方面确实还有差距,但从根本上讲,并没有什么理论上的障碍。所以说时间线上其实很不确定…我们得做好相应的准备。 不过有些数据挺有意思的,我看到的是在过去六年里,人工智能在不同时间范围内规划的能力实现了指数级的快速增长。如果这种趋势继续下去,大约五年内,人工智能就能达到员工在工作中所具备的水平。当然,这只是工程任务中的一类,其他方面还有很多因素也很重要。
比如,有些公司正在试图改变游戏规则,专注于让人工智能自己进行AI研究的能力。换句话说,做工程、学计算机科学,设计下一代人工智能,包括可能改进机器人技术和空间理解能力。不是说一定会发生,但AI在编程能力和算法理解上的提升速度非常快,这可能会开启很多新的可能性。我们现在还不知道具体会怎样,应该保持中立,不要妄下定论,因为未来有很多种可能。
主持人:所以,总的来说,我们的共识是,在某种程度上,我们觉得未来其实已经到来了,但不会有某个瞬间一切都变成未来。你们今天的工作,就是帮我们在这条路上找到方向,直到我们能和这些系统并肩工作。说实话,我个人非常激动,想看看接下来会发展成什么样。如果一年后我们再搞一次对话,肯定是完全不一样的世界。非常感谢大家的参与,分享你们的故事,和我们一起聊聊这个庞大的话题。
看完了吧?刺激不刺激。
这六位大佬坐在一起,你就能清晰地感觉到两条“路线”的碰撞:
1. 工程派 (Jensen & Bill Dally): 这波人是实干家。在他们眼里,AI就是个(超级牛的)工程问题。算力管够,数据管够,剩下的就是不断优化、扩展、应用。Jensen的“AI工厂”论和Bill的“满足1%需求”论,都透着一股“大力出奇迹”的信念。他们不纠结“灵魂”和“AGI”,他们只关心这东西能不能“干活”。
2. 科学派 (LeCun, Hinton, Bengio): 这三位是理论家,是“造梦”的人。他们对现状没那么满意。LeCun直言不讳地说LLM有天花板,Bengio开始担心“造出了啥玩意儿”,Hinton虽然觉得AGI快了,但也承认现在的模型原理和40年前没差。他们追求的不是“能干活的AI”,而是“能理解世界的智能”。
3. 人本派 (Fei-Fei Li): 李飞飞的角色很特别。她既是ImageNet的“工程缔造者”,也是“以人为本AI”的“灵魂拷问者”。她总是在提醒大家:这东西太强大了,强大到能“改变文明”,我们必须现在就想好“指导框架”,把“人性”放在最中间。
III. 所以,未来会怎样?
我的看法是:别再等那个“AGI奇点”了。
就像李飞飞说的,它不会是一个“突然发生的事件”。AI的“超越”部分已经到了。
未来几年,我们会看到“工程派”的狂飙突进,Nvidia的GPU会继续卖爆,各种AI应用会像雨后春笋一样冒出来,渗透到我们工作的方方面面。
但同时,“科学派”的担忧也是对的。光靠堆数据和算力,我们可能只会得到一个“更会模仿的鹦鹉”,而不是一个“能思考的伙伴”。我们迫切需要下一个像“反向传播”那样的理论大突破。
而最重要的,是“人本派”的刹车。
技术没有价值观,但使用技术的人有。在这场史无前例的智能化大迁徙中,我们到底是想造出“取代人”的机器,还是“增强人”的工具?
这,才是这六位大佬留给我们最该思考的问题。

从左到右:图灵奖得主约书亚·本吉奥(Yoshua Bengio)、英伟达首席科学家兼高级副总裁比尔·戴利(Bill Dally)、图灵奖得主杨立昆(Yann LeCun)、英伟达CEO黄仁勋、诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)和美国斯坦福大学教授李飞飞
参考链接:
[1]https://www.youtube.com/watch?v=0zXSrsKlm5A
[2]https://qeprize.org/winners/modern-machine-learning
[3]https://blogs.nvidia.com/blog/nvidia-founder-and-ceo-jensen-huang-and-chief-scientist-bill-dally-awarded-prestigious-queen-elizabeth-prize-for-engineering/
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
喜欢本公众号的话欢迎一键关注👇,差不多每天更新;公众号现在是乱序推送,需要及时收到的朋友可以星标公众号哦^_^
p.s. 圆桌对话原文见知识星球最新上传文档:AI六神齐聚伦敦《金融时报》圆桌对话原文(中文翻译版)