Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >对话 Max Tegmark:掌控权必须掌握在人类手中

对话 Max Tegmark:掌控权必须掌握在人类手中

作者头像
小腾资讯君
发布于 2023-09-05 00:53:59
发布于 2023-09-05 00:53:59
2370
举报
文章被收录于专栏:资讯分享资讯分享

8月26日,集智俱乐部与腾讯研究院共同举办“AIS²系列学术报告和研讨活动”沙龙,共同提出AIS²倡议,意指AI+Society与AI+Science这两大如火如荼的前沿领域,并预言人工智能即将在跨学科研究中形成的集体涌现。

此次学术沙龙活动的第一部分以“智能边界:大语言模型能否再次涌现”为主题,麻省理工学院物理学教授、未来生命研究所(Future of Life Institute)创始人Max Tegmark 进行了主题报告,并与腾讯研究院院长司晓进行对谈。本文为对谈实录,由ChatGPT-4转写翻译生成,并经人工编辑校对

司晓:你刚才的演讲对我很有启发。我不禁想起2019年在波多黎各参加未来生命研究所召开的AI国际会议的经历。我记得当时会议的主题是“有益AGI”(Beneficial AGI)。当时大家预期,通用人工智能(AGI)何时到来的平均预期时间是2045年。你在会上讲到了当时常见的关于AGI的迷思(myth,意指错误观点),比如只有超级智能变坏、产生自我意识才会给人类带来严重安全风险,并且提出可以通过将AI与人类的价值观“对齐”(alignment)来大幅降低这些风险。

当时,我们大部分人都觉得AGI距离现实仍然相当遥远,防止AGI变坏听着像科幻小说,而隐私保护、数据安全、算法透明是更值得关注的现实问题。那时候对AGI的讨论,通常不是很聚焦。四年后的今天,随着大模型的突破,我们对AGI的设想更清晰了。当然我们还是对如何应对AGI莫衷一是,但这些意见分歧定义很清晰,可以对下一步AGI发展的指导原则进行细节讨论。那么,如果像4年前那样再组织下一次人工智能国际会议,你会讨论哪些议题,会将什么问题放在议程最优先的位置?

Tegmark:是的,我们在波多黎各谈得很好。对于AGI来说,确保它未来发展方向的措施是显而易见的,也就是说,像对待生物制药行业那样对待AI行业。生物制药公司应该首先获得相关监管机构的许可,才能销售创新的生物制药产品。制药公司必须要做临床试验,提供证据证实自己的药品安全有效、获益大于风险,才能从监管机构得到销售许可。人工智能产业还处于监管的早期阶段。在我看来,受到恰如其分的监管,是生物制药行业发展相对较好的原因。人工智能产业还处于监管的早期阶段。我相信不论是在美国还是在中国,没人会同意免除所有临床试验,为一些不负责任的公司售卖有害产品开方便之门。

所以,如果要再举办一场AI国际论坛,将如何监管人工智能发展作为重要主题,可能是比较合适的。让来自全球的嘉宾开放讨论他们是如何监督航空业、汽车业、生物制药的,这些行业的最佳实践是什么,是否也可以用到对人工智能产业发展的监管中来。这样的讨论是可以很快出成果的。这样也能为我们争取时间,去研究解决你刚提到的一些更困难的问题争取时间。

司晓:好的,谢谢你的回答,对你的回答我很有感触。人工智能尚处在爆发期,在技术和商业上都有很多不确定性,监管的难度是比较大的,各方面的争议也比较多。

我的另一个问题是,数月前,Geoffrey Hinton提出了“可朽计算”(mortal computer)的概念。大意是把AI与硬件绑定,比如以很低的成本给烤箱装上GPT,用数瓦的电力就可以驱动,很像人类这样的有机生物智慧,能耗低,智慧会随着硬件的损耗而流逝,所以叫作“可朽计算”。在你的《生命3.0》一书中,你设想通过将AI与人类结合,打破很多生命体的生物局限。机器变成凡人,人类可以不朽。大型语言模型的出现,让人类文明第一次如此接近AGI。这些新变化,是否让你对未来人类的生存形态有新的设想?如果有机会重新写《生命3.0》,你最想修改书中的哪部分?

Tegmark:是的,我同意你的说法,AI的发展仍然有很多可能性。

我想,未来会变得如何,仍然一个非常开放的问题。但无论如何,掌控权必须掌握在人类手中。一般来说,技术创新带来功能更强大的技术,如果掌控权在我们手中,就好比你可以很好控制你的智能手机,那么智能手机就会是一个有帮助的工具,让你更好完成以前做不到的事情。但如果我们对创新的成果没有掌控权,那情况可能会很糟糕。

如果某天超级智能问世,我们不应该只把它看作是蒸汽机或电这样的新技术发明,而是把它看作出现在地表的新物种。与新发明不同,新物种会自我复制,并且有自己的想法和目的,所以我们必须非常、非常小心。我们不会担心像牛羊这样的既有物种捣乱,因为这些物种很容易控制,就智力水平而言,我们远远胜出。而如果我们创造出超级智能这样比我们聪明得多的新物种,事情就反过来了,控制这一新物种异常困难,很容易就失去对它的控制。

所以我想,如果我们把事情做对了,找到方法确保让机器与我们的目标一致、始终站在我们一边,辅助我们,人类的未来就十分美好。像刚才主持人提到的,人工智能协助我们治疗所有疾病、消除饥饿和贫困、实现世界和平、探索未知宇宙。但这些的前提都是掌控权在我们手里。所以与其问超级智能将如何改变未来,不如问我们到底想要一个什么样的未来?然后再看如何走向我们想要的未来。

在我看来,中国在这些方面可以扮演非常关键的角色。中国是存续了数千年的古老文明,有更加深厚的长远思考的传统。我真的建议大家多想想,人工智能对人类的未来意味着什么,详细阐述出来与所有人分享。如果全球能够对未来愿景达成积极的共识,每个人都会从中获益,互相合作共同建设这样的未来愿景也会容易很多。

司晓: 是的,同意,掌控权必须抓在我们手里。你刚才在主题演讲中提到了未来生命研究所最近发布的公开信,呼吁将研发比GPT-4更加强大的AI系统暂停至少6个月。Elon Musk和AI领域的一些重量级人物都在信上署名。这一呼吁得到相当多的关注,并引发了广泛讨论。我记不太清这封信具体的发布日期了,是不是已经过去六个月了。Geoffrey Hinton为了敲响AGI的警钟,在今年早些时候从Google离职,距离他谈论“可朽计算”仅仅几个月的时间。马斯克则一度认为AGI是人类走向星际文明的必由之路。

如果我没理解错的话,今年以来,Hinton对AI的态度发生了180度的大转变。那么,你对AI发展的未来仍然持乐观态度吗?你是否同意AGI总体上对人类有益,未来生命研究所提出的阿西洛马AI原则是否足以保护人类免受AGI的威胁?

Tegmark:我一直相信AI要么成为人类历史上最棒的事情,要么成为人类历史上最糟的事情。而到底是最棒还是最糟,选择权在我们手中。对于我们是否能很好处理人工智能挑战,说实话,在过去的一年里,我多少感觉更悲观一点。我一开始曾经期待,当人工智能的挑战越来越明显的时候,政策制定者会更快采取行动,对人工智能的发展进行监管。就像我刚才提到的,他们已经在生物、航空和其他领域做了很长时间的监管,已经有经验了。

但到目前为止,各国的监管还比较初步,虽然有很多讨论。但我希望能有更多的政策出台。

重要的是要记住,我们几乎可以肯定未来会发展出强大的、超过人类的AI,但不能保证它会是友好的。我们必须做出努力,统筹协调监管、合作和安全技术,确保AI是对人类有益的,而不是指望这一点会自动实现。在这个问题上,我们没有任何懈怠的空间。

司晓:好的,我问得更具体一点,价值对齐(Value alignment)被认为是解决AI挑战的一个重要方法,确保AI的决策与人类的价值观和道德观念一致。对齐也是阿西洛马AI原则的基本思想之一。对齐不是自动实现的,需要大量的资源投入来保障对齐。Open AI说他们打算将20%的计算资源用来支持价值对齐研究和技术实践。这个投入力度不小,但你认为这足够吗?大模型公司需要如何保障价值对齐的投入?全球不同的组织在不同的地区训练不同的大语言模型,又如何确保在不同实体、地区之间实现普遍的对齐?

Tegmark:我认为Open AI现在能做的最好的事情,就是停止训练GPT-5或其他更强大的模型,并承诺在我们弄清楚如何保障人工智能安全性之前,不会发布比GPT-4更强大的东西。但问题是,人工智能公司同时面临来自同行的竞争压力,没有公司会自觉独立停止研发,因为这么做除了让自己输掉竞争之外,不会有其他作用。所以这就是为什么我觉得我们必须达成一个覆盖全球的安全标准。所有人都必须遵守这个标准,都在同一个水平上公平竞争。这样我们才能实现有意义的“暂停”。

对于第二个问题,我们应该在什么基础上达成一致,尽管不同国家不同企业往往有不同的角度和观点,但实际上我觉得情况比大多数人想象的要乐观。我在前面主题演讲的开头提到了联合国的可持续发展目标(SDG)。SDG是非常大、非常有雄心的目标,而且全球大多数国家,不管是中国美国俄罗斯还是印度,都赞同这些目标。那就从这些我们都赞同的目标开始,然后再去一点点深入到细节。我们应该相信,与机器相比,人类之间的共同点非常多,我们都要吃饭睡觉、都敬畏生命、都珍视家庭。

而对大语言模型、对AI来说,那是我们完全陌生的思维方式。这些AI的思维空间远远大于人类的思维空间,不难想象,这样一个AI完全不关心上面提到的这些、对我们来说非常重要的东西。它可能只是想把地球变成一个越来越大的GPU服务器农场,或者把太阳变成戴森球(弗里曼·戴森设想的开采恒星能源的人造天体),或者把行星排列成其他形状,等等。所以,我说这些的意思是,人类所一致希望的那些东西跟机器的疯狂想法相比,是根本没有可比性的。先弄清楚如何让机器与我们都同意的全球价值对齐,是个很好的起点。

司晓:AGI的挑战一方面是如何负责任地开发,另一方面是如何负责任地使用。为了能够与智能机器共存,我们需要对今天的教育系统进行更新,让每个人都做好准备,特别是年轻一代。因为教育是最先被AI改变、受到AI影响的领域。

我最近与香港大学的一位教授朋友交谈。他告诉我,GPT在校园里被广泛误用。学生们现在使用ChatGPT来做作业,写论文。他问我是否有可能开发一些算法来检测学生作业的“含GPT量”。他也感慨,未来教育会不会变成一个不同的智能工具之间的竞赛,一个AI做作业,一个AI检测“含GPT量”。学生和老师之间的教和学,是不是会变成一场谁能更好使用AI的攻防战。Max您是MIT的教授,对这样的攻防战应该有一手经验。那么,你如何看待AI对人类教育和学习模式的长期影响?这样的攻防战是为了让年轻一代适应即将到来的AI时代的必要之恶吗?

Tegmark:我同意你说的,它对教育有深远的影响。确实会有这样一场竞赛,一个AI检测作业是否是机器生成的,另一方面学生使用AI来做作业,而且教授们将输掉这场竞赛,因为这些大型语言模型,本身就是为了把人工智能训练得越来越像人类,并且确实做到了。但我认为,我们必须做的是真正地改变,是如何教学和测试学生。更深层次的问题是,如果机器能比人类更高效更好地完成所有工作,那么我们首先就要问问自己,生而为人的意义是什么。一开始,我们就不应把自己置于非要与机器竞争的境地,毕竟它们可以以极低成本做得比我们更出色。

我们可能决定保留一些工作,这些工作可以赋予人生意义,即便机器可以更便宜地完成这些工作。我们不应该只是考虑工程师或者AI研究这样的工作,可能要谈谈像心理学家、教师和社会工作者这些工作,谈谈什么能带来幸福,我们想要什么?我们想在AI时代建立什么样的社会,使AI让我们变成更好的自己,使生活更有意义,而不是与机器竞争工作岗位。

司晓:好的。由于时间关系,我想我应该在这里停下。非常感谢Max的精彩发言和这次引人入胜的讨论。我认为你所有的新观点都为人类和AGI共同创造一个更美好的未来带来了希望。再次感谢你的分享。

本文系转载,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文系转载,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
OpenAI首席执行官萨姆·阿尔特曼对人工智能的未来有何期待
Altman 认为 OpenAI 的使命是构建一个人工通用智能,并广泛传播其好处。
云云众生s
2024/05/24
870
对话清华刘嘉|ChatGPT意味着第二次认知革命的到来
电视剧《漫长的季节》里有这样几句诗:“打个响指吧,他说/我们打个共鸣的响指/遥远的事物将被震碎/面前的人们此时尚不知情”。
小腾资讯君
2023/10/13
4110
对话清华刘嘉|ChatGPT意味着第二次认知革命的到来
Hinton痛悔毕生工作,AGI十年内降临或导致「奥本海默」灾难!图灵巨头联手中国专家为AI划红线
上世纪40年代,奥本海默的发明,如同天地初开,彻底重塑了世界的面貌。原子弹的问世,带来了一场空前的毁灭危机,让人类面临前所未有的生存考验。
新智元
2024/03/25
1510
Hinton痛悔毕生工作,AGI十年内降临或导致「奥本海默」灾难!图灵巨头联手中国专家为AI划红线
20年20人20问丨黄铁军:人与AI都是智能体,无法100%被信任
腾讯新闻20周年特别策划《20年20人20问》,携手全球顶级企业家、思想家、教授、学者作为“未来提问官”,一起向未来发问,并邀请业内专家、学者与从业者,共同探讨未来20年的未知世界,畅想上天入地的潜在可能。
小腾资讯君
2023/12/04
3230
OpenAI的罢免大戏:技术可以“价值对齐”吗?
2023年,以ChatGPT为代表的大型语言模型(LLM)集中爆发,让各界都看到人工智能全新的可能性。但期冀总是与担忧并存,随着大模型在各领域的应用深化,已经沉寂许久的“AI威胁论”又开始甚嚣尘上。在漫长的技术史中,技术恐惧如同摆脱不了的阴影,总是与技术发展随行。这一次,面对一个前所未有的强大AI,担忧的情绪同样前所未有的强烈。在这种背景下,为了防止AI发展脱轨,“价值对齐”的概念又重新获得众多拥趸,成为一个热门的领域。
用户9861443
2023/12/19
2310
OpenAI的罢免大戏:技术可以“价值对齐”吗?
与OpenAI CEO萨姆·阿尔特曼对话:AGI将在10年后到来
现在让我介绍一下萨姆·阿尔特曼(Sam Altman)。萨姆是大家熟悉的连续创业者,他曾担任YC的总裁,现在是OpenAI的CEO,他还投资了包括Airbnb、Stripe等公司,甚至还参与了Heon这样的能源融合公司。他帮助建立了World Coin,一种新的加密协议,可以说他涉足过很多领域的投资。他可谓涉及众多领域,且都做得很好。欢迎萨姆!感谢他加入这一轮讨论。
AIGC部落
2024/09/30
1900
与OpenAI CEO萨姆·阿尔特曼对话:AGI将在10年后到来
为何不能暂停AI研发?丨杨立昆吴恩达对话实录
大数据文摘授权转载自智源社区 编辑:熊宇轩、李梦佳 北京时间4月8日凌晨0:30,Yann LeCun(杨立昆)和吴恩达针对近期甚嚣尘上的「AI暂停」一事进行了一场深入讨论,讨论主题为「为何为期6个月的AI暂停是完全错误的」。在这场风波中,二人都立场鲜明,明确表态反对暂停AI研发。汽车刚发明时没有安全带和交通信号灯,Yann LeCun认为,人工智能与先前的技术进步之间没有本质上的差异。智源社区对讨论核心观点进行了整理。 吴(吴恩达):在过去的 10、20、30 年间,我们见证了深度学习惊艳的效果。在近
大数据文摘
2023/04/10
2560
为何不能暂停AI研发?丨杨立昆吴恩达对话实录
LeCun :一味模仿人脑将阻碍AI的发展
【新智元导读】Facebook的AI研究负责人指出,一味模仿人脑开发AI将会阻碍AI的发展。很多业界专家也有类似的论调,他们认为AI研究的重点不应是模仿大脑的工作机制,而应该是探寻智能的根本原则。 有些人认为,造物主是按照自身形象创造出人类。而人工智能可能是人类最伟大的发明,人类也一直试图按照自身来创造AI。最典型的方法是以数字形式再造人类大脑。然而顶尖科学家并不认同这一方式,认为试图完全模拟人类大脑纯属浪费时间。应从别的地方寻找灵感。 巴纳德学院的天文学家Janna Levin说,“我们并未真正理解人类大
新智元
2018/03/22
5750
宇宙智能演化将进入后生物时代,人类不再是衡量智能的标准
【新智元导读】本文探讨了智能演化以及未来超级智能及其认知、形态的可能,以及超级智能 AI 与人类的关系。作者认为,从生物智能到“后生物”智能可能是宇宙中的一种基本过程。没有意识也能发展出超级智能,认为非要拥有“意识”才产生智能,自然就会用消极的观点看待智能的发展。超级智能可能由生物材料构成,但不一定拥有意识,因此也就可能用完全不同的方式判断人类的价值,所以不能排除超级智能 AI 威胁人类的可能。而对于人类来说,研发不具有意识的 AI 才是合理的选择——有意识的机器在人类通过意识去判断的标准下,会带来一系列问
新智元
2018/03/26
7950
宇宙智能演化将进入后生物时代,人类不再是衡量智能的标准
OpenAI首席科学家:ChatGPT已经出现意识,人类未来将与AI融合
OpenAI的联合创始人兼首席科学家Ilya Sutskever在接受采访时表示,现在的首要任务已经不是制作下一个GPT或DALL·E,而是研究如何阻止超级AI的失控!
新智元
2023/11/02
2980
OpenAI首席科学家:ChatGPT已经出现意识,人类未来将与AI融合
高效预测几乎所有人类蛋白质结构,AlphaFold再登Nature,数据库全部免费开放
转载自Science AI 作者:雪松、凯霞 这次,AlphaFold 的预测结果几乎覆盖了人类所有的蛋白质结构,而且将免费开放给公众。这将是科学界的一笔宝贵财富。 生命所必需的每一次基础生物学活动几乎都是由蛋白质带来的。蛋白质参与创建细胞和组织并保持着它们的形状;构成维持生命所需化学反应的催化酶;充当分子工厂、转运工具和马达;充当细胞通讯的信号和接收器等等。 蛋白质由很多氨基酸长链组成,通过折叠成精确的 3D 结构来完成无数的任务。这些结构控制着它们与其它分子互动的方式,决定了其功能以及它在疾病中的功
机器之心
2023/03/29
5660
高效预测几乎所有人类蛋白质结构,AlphaFold再登Nature,数据库全部免费开放
GPT-5不能停!吴恩达LeCun直播回怼马斯克:汽车都还没发明,要什么安全带
梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 大模型研究不能停! 吴恩达和LeCun为了这事儿,甚至亲自搞了场直播。毕竟再不出手,事态眼看着越来越严重了: 马斯克等人叫停GPT-5研发的事态再次升级,已从千人联名发展到超过13500人签署。 两人还直言,暂停AI研究就是反理性: AI研究暂停6个月,才是真正巨大的伤害。 应该受监管的是AI产品,而不是背后的研究。 此前暂停比GPT-4强大的AI试验的呼吁,已得到深度学习三巨头中的Yoshua Bengio签名支持,Hinton未签名但表示“要比6个
量子位
2023/04/10
2830
GPT-5不能停!吴恩达LeCun直播回怼马斯克:汽车都还没发明,要什么安全带
对话京东何晓冬:「多模态大模型」涌现之前,要先回答三个问题
在关于 ChatGPT 的讨论中,“数据飞轮” 被视为是经 ChatGPT 所验证的变革引擎,是大模型智能飞跃中的关键一环:向用户开放模型,建立用户真实数据反馈与模型迭代间的飞轮,用户反馈数据越多,模型的迭代速度也越快。
AI科技评论
2023/08/08
2660
对话京东何晓冬:「多模态大模型」涌现之前,要先回答三个问题
AGI渐行渐近,该加速还是要踩刹车?
马斯克在今年早些时候预测,AGI可能会在2026年投入使用。DeepMind联合创始人、首席AGI科学家Shane Legg在一次访谈中认为,2028年,人类有50%的概率开发出第一个AGI。然而百度CEO李彦宏的观点则更加审慎,他认为AGI还需要10年以上的时间才能出现。
科技云报道
2024/05/29
1290
AGI渐行渐近,该加速还是要踩刹车?
AI教父本吉奥最新访谈:AI马上会超越我们,必须建立国际组织守护人类
人工神经网络和深度学习(一种受大脑启发的机器学习方法)的先驱。2018年,本吉奥与Meta首席人工智能科学家杨立昆(Yann LeCun)、谷歌前研究员杰弗里·辛顿(Geoffrey Hinton),因“概念和工程上的突破,让深度神经网络成为计算的关键组成部分”,共同摘得计算机领域的诺贝尔奖--图灵奖。如今,上述三位计算机科学家也被称为“人工智能教父”。
小腾资讯君
2023/12/13
2500
观点 | Life 3.0:Stuart Russell带你展望AI时代的人类未来
选自Nature 作者:Stuart Russell 机器之心编译 参与:路雪、李泽南、黄小天 近日,来自麻省理工的物理学家 Max Tegmark 出版了一本新书《Life 3.0 Being Human in the Age of Artificial Intelligence》,对人工智能在未来的发展进行了理性而深刻的思考。这本书引起了人工智能社区和科技界的广泛关注,也迅速登上了亚马逊人工智能&机器学习类书籍排行榜第一位。他的学术合作者,UC Berkeley 教授 Stuart Russell 撰写
机器之心
2018/05/08
8630
观点 | Life 3.0:Stuart Russell带你展望AI时代的人类未来
《未来简史》后划时代巨作,《生命3.0》给人类命运一份终极指南
【新智元导读】2018年,一本比《未来简史》更具有划时代意义的著作《生命3.0》出版。作者MIT物理学终身教授迈克斯·泰格马克认为智能终将摆脱自然演化的束缚,成为自己命运的主人。书中描绘了12种人与人工智能的未来,定将给中国产业界带来极大启发,让更多中国人知道自己的命运,知道这个世界未来的命运。
新智元
2018/07/31
9620
《未来简史》后划时代巨作,《生命3.0》给人类命运一份终极指南
暂停GPT-5研发呼吁引激战!吴恩达、LeCun带头反对,Bengio站队支持
---- 新智元报道   编辑:编辑部 【新智元导读】千人签名的AI不扩散条约发布一天后,各路大佬纷纷有了后续回应,言谈间耐人寻味。「AI吹哨人」:不封杀超强AI研发,我们都得死! 昨天,千位大佬写的暂停超强AI训练六个月的联名信,如同一枚炸弹一般,在国内外的互联网上炸响。 经过了一天的唇枪舌剑,几位关键人物以及其他各路大牛,都纷纷出来公开回应。 有的非常官方,有的十分个性,也有人并没有直面问题。但有一点可以肯定,不论这些大佬自己的观点,还是背后所代表的利益集团,都值得细品。 有趣的是,在图灵三巨头
新智元
2023/04/01
2520
暂停GPT-5研发呼吁引激战!吴恩达、LeCun带头反对,Bengio站队支持
七页长信曝光!比尔·盖茨力推的三本书,不读可说不过去了
---- 新智元报道   编辑:Aeneas Britta 【新智元导读】微软联合创始人比尔·盖茨发表了一封长达七页的信件,标题为「人工智能时代已经开始」,概述了他对人工智能未来的看法。 近日,比尔·盖茨发表了一封长达7页的公开信,探讨了关于人工智能的未来。 并且在信中,他重磅推荐了三本书。 被比尔盖茨推荐的书,是什么样子? 影响比尔·盖茨最深的三本书 比尔盖茨谈到影响到他对人工智能思考的三本书,这三本书都还没有译成简中: 「有三本书塑造了我对这个主题的思考:尼克·博斯特罗姆(Nick Bostro
新智元
2023/03/29
2370
七页长信曝光!比尔·盖茨力推的三本书,不读可说不过去了
当智能体具备生命体征时,超级人工智能将给人类带来什么?
大多数讨论都将人工智能的未来描述为像终结者那样的启示录或像Wall-E那样的乌托邦。
新智元
2020/07/09
7610
当智能体具备生命体征时,超级人工智能将给人类带来什么?
推荐阅读
OpenAI首席执行官萨姆·阿尔特曼对人工智能的未来有何期待
870
对话清华刘嘉|ChatGPT意味着第二次认知革命的到来
4110
Hinton痛悔毕生工作,AGI十年内降临或导致「奥本海默」灾难!图灵巨头联手中国专家为AI划红线
1510
20年20人20问丨黄铁军:人与AI都是智能体,无法100%被信任
3230
OpenAI的罢免大戏:技术可以“价值对齐”吗?
2310
与OpenAI CEO萨姆·阿尔特曼对话:AGI将在10年后到来
1900
为何不能暂停AI研发?丨杨立昆吴恩达对话实录
2560
LeCun :一味模仿人脑将阻碍AI的发展
5750
宇宙智能演化将进入后生物时代,人类不再是衡量智能的标准
7950
OpenAI首席科学家:ChatGPT已经出现意识,人类未来将与AI融合
2980
高效预测几乎所有人类蛋白质结构,AlphaFold再登Nature,数据库全部免费开放
5660
GPT-5不能停!吴恩达LeCun直播回怼马斯克:汽车都还没发明,要什么安全带
2830
对话京东何晓冬:「多模态大模型」涌现之前,要先回答三个问题
2660
AGI渐行渐近,该加速还是要踩刹车?
1290
AI教父本吉奥最新访谈:AI马上会超越我们,必须建立国际组织守护人类
2500
观点 | Life 3.0:Stuart Russell带你展望AI时代的人类未来
8630
《未来简史》后划时代巨作,《生命3.0》给人类命运一份终极指南
9620
暂停GPT-5研发呼吁引激战!吴恩达、LeCun带头反对,Bengio站队支持
2520
七页长信曝光!比尔·盖茨力推的三本书,不读可说不过去了
2370
当智能体具备生命体征时,超级人工智能将给人类带来什么?
7610
相关推荐
OpenAI首席执行官萨姆·阿尔特曼对人工智能的未来有何期待
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档