前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >哈佛大四学生硬核长文:AGI三年后实现,推动某大国强势崛起!26年人类工作被AI接管

哈佛大四学生硬核长文:AGI三年后实现,推动某大国强势崛起!26年人类工作被AI接管

作者头像
新智元
发布于 2025-02-04 13:16:25
发布于 2025-02-04 13:16:25
1280
举报
文章被收录于专栏:新智元新智元
【新智元导读】在哈佛学习AI的大四本科生参加了多场兵棋推演后,给出结论:AGI将在三年后实现。并且在26年,大部分人类的工作都会被AI接管。而AGI的诞生,将打破各国的军事力量平衡,让某个国家获得压倒性的战略优势。而人类尤其要小心,大量AI智能体会背着人类密谋一些不良行为。

最近,哈佛的一名AI专业大四学生给出了自己的预测:AGI将在三年后实现。

而在2026年,AI就已经会接管大部分人类的工作。

做出这样的预测,他有充分的理由。

在这期间,他曾主持了多个缩短AGI时间表的小型研讨会,汇集了大约50名参与者的想法。

同时,他还参与和领导了多场短期的AGI兵棋推演。

最后,他写出这样一篇博文。

文章内容包括——

  • 3年AGI时间表的故事,包括各种变量和重要的参与者
  • 目前尚未满足的人类生存先决条件
  • 稳妥的优先行动

文中假设,AGI出现时间点的中位数为2027年。作者并没有花太多篇幅论证这一观点,而是更关注3年时间表的影响。

在这里,AGI被定义为能够完成2022年95%远程劳动力工作的AI系统。

但如何定义并不那么重要,因为一旦我们实现了AI研发的自动化,几乎所有对AGI的定义都会很快被满足(除非出现协调放缓或灾难性事件)。

3年AGI时间表

到2025年6月底,SWE-bench大约达到85%,在限定人力预算的情况下,RE-bench约为1.1,超过了8小时人类得分的70个百分位。

到2025年底,AI助手能够胜任大多数需要2小时完成的真实世界软件工程任务。

当AGI公司的员工需要完成一些小型的公关任务或编写小型数据分析管道时,他们会优先寻求AI助手的帮助。

后者A能编写或修改多个交互文件,大多数情况下不会出现错误。

3年时间表下的基准预测。OSWorld和CyBench排名不高的很大一部分原因,是作者不确定人们是否会报告这些基准测试的结果。鉴于基准结果与现实世界影响之间存在巨大脱节,暂时认为这种实际情况并不能成为3年时间表的有力证据

到2026年底,AI智能体将能胜任多天的编码任务。

AGI公司的员工们都吓坏了,他们会预计,能在95%的虚拟工作中击败人类的AI两年内就能创造出来,并且超级智能也会很快出现。

政府会意识到,AI将对国家实力产生决定性的影响,并且会在2026年锁定AGI公司。

也就是说,到时候AGI公司会被采取近乎国有化的极端政府管理形式。

就像核武器战争一样,各国都会处在高速竞争的状态。

从2027年开始,这个公司的大部分高质量劳动力,都会是AI智能体。

而领导层的主要决策,就集中在如何将数百万AI智能体分配到不同的研究领域,比如AI研发、安全、商业应用、军事应用、网络安全、运营、通信、政策工作,以及公司中几乎所有以计算机为基础的工作。

此时,人类员工的作用已经不太重要,他们的主要任务是为陷入困境的AI智能体团队提供帮助,回答它们在工作中遇到的问题,充当第二意见的角色。

基于年份的变量

请注意,故事到了中段,开始发生了重大的动态变化,这也意味着战略格局的显著转变。

前自动化时代(2025-2026年)

在2025年和2026年,大多数工作仍由人类完成。

最重要的问题集中在如何分配人力,以及AI实验室和供应链其他环节所面临的商业和监管压力上。

在前自动化时代,人类的首要任务是迅速找到安全的方法,将研究工作委托给AI智能体。

任何以安全为导向的研究,主要就是为了控制这些早期智能体,因为它们之后会自主进行研究。

这个时代的另一件必做的事,就是找到方法来判断当前的安全干预够不够,是否足以防止大量AI智能体背着人类密谋一些不良行为。

这时,我们需要建一个中止系统,而且在无法证明安全性的时候,也能说服他人暂停。

然而随着AI「核战争」加剧,这一点将会变得愈加困难。

后自动化时代(2027 年以后)

2026年之后,大部分工作由AI完成。这时,研究工作基本已经脱离了人类的掌控,但人类员工仍然会参与高层决策,并与AGI公司以外的人类进行对接。

到2028年底,人类已无法在技术研究方面做出贡献。

这一时期的主要问题,集中在AI智能体的分配,及其被赋予的优先事项。

关于这一阶段的重要问题包括——

  1. AI智能体所追求的总体研究计划有多好?

例如,如果最初负责规划研究方向的人类对AI安全问题本质上存在误解,即使AI智能体最初是善意的,模型对齐的希望也可能因此破灭。

  1. 公司在安全导向研究上投入了多少资源?

比如,是投入0.1%还是25%的算力用于安全研究,可能会对安全工作的成败产生巨大影响。

重要玩家

AGI公司领导者

他们引导着AGI公司的大方向。

安全研究人员

内部人类AI安全研究员 —— 他们负责制定前自动化和后自动化时期的研究计划,并完成大部分将在前自动化实施的安全研究。他们还监督自动化的安全研究员的工作。

内部自动化AI安全研究员 —— 他们完成了自动化时代大部分已实施的安全研究。

外部人类AI安全研究员 —— 他们进行前自动化的研究,其中只有一小部分会被内部采纳实施。他们还从外部对前自动化和后自动化研究计划的公开部分进行批评和审查。

然而,由于国家安全原因,公共知识与私有知识之间的差距将在自动化后扩大,他们可能在这一阶段变得无关紧要。

美国政府

其他国家政府、美国人工智能安全机构(AISI)或其他政府机构、智库、高地位科学家以及公众,对AGI公司施加压力和影响。

在AGI阶段(很可能在超级智能之前),这些公司可能就会国有化或者监管。

落后的AGI公司

它们会被施加竞争压力,并设定安全先例。

最终,它们可能会与主要AGI项目合作或被收购。

如果不合作或未被主要AGI项目收购,则很可能在超级智能出现之前,它们的大部分算力会被征用。

不良行为者

这些人会试图窃取、滥用AI技术。

注意:「人工智能安全社区」并不在此列表中。

在作者看来,没有太多资本(金融、社会、知识或其他资本)的外部人士,并没有那么大的影响力。

目前尚未满足的人类生存先决条件

一个合理的启动计划

目前,AGI公司缺乏明确的愿景,无法安全地将研究工作交给AI智能体。

对齐方法 —— 各公司尚未公开制定默认计划,明确应将哪些研究领域分配给AI智能体群体。

算力承诺 —— 即使有合理的对齐方法,缺乏明确的算力分配承诺,也可能导致分配给对齐工作的AI智能体和算力比例不足。

前沿安全框架 —— 关于SL-4和SL-5的要求和承诺目前非常不清晰,在启动阶段存在大量偷工减料的可能性。

控制 —— 安全地将工作交给AI智能体(或判断其是否安全)的科学方法,仍然很不成熟。

国家级网络安全保障

如果不良行为者能够窃取先进AI系统的参数权重,他们的滥用行为可能就会导致局势变得极其不可预测,同时也可能使更不谨慎的实体得以创造出先进的AI系统。

应对全球紧张局势的方法

AGI的诞生,将扰乱各国之间的军事力量平衡,可能使某个实体获得决定性的战略优势。

作者认为,未来10年内爆发核战争的概率约为15%,这主要归因于默认情况下启动阶段所引发的极端紧张局势。因此,找到避免核战争的方法至关重要。

在冷战期间,曾多次发生将人类推向毁灭边缘的核危机,其中一些是战略平衡变化的后果(如古巴导弹危机)。

美国曾因柏林封锁,而威胁苏联发动核战争。超级智能的诞生将使这些危机相形见绌,问题是相关官员是否能认识到这一点。

正确实施国有化

把握时机 —— 如果国有化发生得太晚(例如在AGI之后),项目中可能会因随之而来的混乱和快速变化而产生糟糕的决策。

制定默认计划 —— 2025年或2026年可能会出现锁定实验室的重大政治意愿。如果届时还没有合理的默认计划或路线图,那么这个计划可能在许多方面都不是最佳的,而且制定的人缺乏相关的专业知识。

积累政治资本 —— 如果具备相关专业知识的人没有被重要决策者所熟知,那么缺乏相关专业能力的人,可能就会被任命为项目领导人。

在国有化过程中保留安全专家 —— 如果国有化的推进驱逐了所有AI安全专家,项目可能会因缺乏技术专长而无法使其模型足够安全。

至于哪些人会被保留,很大程度上取决于领导层和以能力为导向的员工是否重视安全问题,而这又很大程度取决于是否建立了对安全问题的共同认知。

稳妥的优先行动

所以,我们应该提前采取哪些行动?

加入那些对未来发展有重要影响的机构

想想你希望被谁雇佣,以及你还差多少能力、条件才够格。

如果你正在外部从事研究,记得将研究方向的重要性乘以研究成果在内部实际实施的概率。一个简单的判断标准是,研究是否有可能被分享到内部的Slack上。

在严格的政府监督下,内部研究可能需要某种形式的安全许可。因此,避免吸毒、避免负债、远离可疑人士,减少不必要的对外接触。

帮助为重要角色提供信息

许多关键角色,都希望从对AGI和AGI安全有深入思考的人那里获得建议。当他们有问题时,他们是否会首先想到联系你?

制定实际计划

逐年制定计划是一个不错的方法——例如,计划在2025年底、2026年底、2027年底之前完成什么。

记住关键时限

只有在AGI出现之前必须完成的事情才是最重要的,因为AGI可以完成其他事情。

作者承认,现在对较长时间线的预测有一些赌注的成分,但他认为,跟20年AGI时间线下的潜力相比,这些事情的优先级应该被适当降低。

另外,在AGI出现后,可能会有约一年的「人机共存」时期。但作者认为这不是一个重要的因素,因为目前还不清楚它会带来什么独特的影响。

让一切加速

如果你的计划是「我将做X,以便以后做Y」,那不如现在就开始做Y。

如果你的计划是「我将为一家不相干的ML公司工作一年,以获得进入AGI公司的资历」,可以考虑直接申请AGI公司,或者采取其他措施,加速这一行动。

进行相应的投资

如果AGI在三年内到来,这对你该如何构建投资组合可能会产生重大影响,因为某些投资与这一预测的相关性远高于其他投资。

资金可能在启动阶段被用于快速涌现的机会,以引导事态发展,但如果人类在ASI之后幸存下来,目前尚不清楚资金还能有何用途(从先验来看,财产权可能会在一定程度上受到尊重)。

培养适应力和韧性

随着时间的推移,世界会变得越来越快。此时,保持冷静和理智将对做出明智决策至关重要,而这种能力也会变得日益稀缺和宝贵。

-花时间思考未来,以及你在其中的位置

如果事实跟你预测的方向有出入,与其感叹「天啊,这个世界太混乱了!」,不如换一个更有用的视角:「虽然我在细节上可能错了,但这与我预测的某些可能分支大致吻合,我已经思考过如何在这些情况下行事。」

通过这种方式,你的一部分初步思考可以由现在的自己完成,减轻未来的自己的负担。

这不仅在智力上有助于分担负担,更重要的是,它能在情感层面减少可能的惊讶或恐慌——已知的未知远比未知的未知让人压力小得多。

-不要忽视健康

虽然你可能会觉得,现在适合多奋斗,比以前多工作几个小时,但如果想在启动阶段明智地应对局势,我们的身体需要保持良好的状态。

可持续性很重要,无论是3年还是10年的时间跨度,都需要养成类似的健康习惯。

最后的思考

最后作者表示,虽然思考AGI的短期时间线可能会让人倍感压力,但这不应被视为时间线很长的证据。

如果你是基于10年或20年的时间线制定了当前计划,现在很可能需要在许多方面调整、加速。

以短时间线为基础进行规划的一个优势是,大部分关键因素目前已经基本到位,因此比起规划10年后的未来要容易得多。

我们需要对如何让AGI顺利发展有较清晰的认识。让我们行动起来,实现这一目标。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-02-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
AI 2027研究揭秘美国算力真相!中国全球AI专利Top1,但美国或以算力取胜
比如,OpenAI只发表了48篇文章(排名第325位),但这些文章却获得了高达11,816次的引用(排名第13位)。
新智元
2025/04/30
930
AI 2027研究揭秘美国算力真相!中国全球AI专利Top1,但美国或以算力取胜
末日时间表来了!前OpenAI研究员76页硬核推演:2027年ASI接管世界,人类成NPC
今天,前OpenAI研究员和同事们发出一篇「AI 2027」报告,长达76页,做出了种种硬核预测。
新智元
2025/04/05
800
末日时间表来了!前OpenAI研究员76页硬核推演:2027年ASI接管世界,人类成NPC
硅谷钢铁侠马斯克:2030年AI样样都比人类强
问耕 编译整理 量子位 出品 | 公众号 QbitAI 最近牛津大学、耶鲁大学面向352名专家的联合调查结果显示,到2060年前,人工智能将在任何事情上击败人类。作为回应,硅谷钢铁侠伊隆·马斯克在推特
量子位
2018/03/29
8120
担心成为「AI界奥本海默」!DeepMind、Anthropic CEO同框,26年AGI降临?
DeepMind的创始人Hassabis与Anthropic的创始人Dario无疑是热门人选。
新智元
2025/03/13
680
担心成为「AI界奥本海默」!DeepMind、Anthropic CEO同框,26年AGI降临?
OpenAI前员工预测:2027年AGI降临!GPT智商飙升,4年从幼儿园蹿到高中生
几天前,Anthropic一名25岁的高管在博客上发文,表示自己已经准备好了3年后退休,让AI取代自己的工作。
新智元
2024/06/17
2580
OpenAI前员工预测:2027年AGI降临!GPT智商飙升,4年从幼儿园蹿到高中生
马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转
在马斯克闹出起诉风波后,Altman一直保持缄默。因此,这两条推文应该是全公司经过了深思熟虑的结果——
新智元
2024/03/05
3760
马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转
2028年人类将迎来AGI:DeepMind联合创始人长文预测未来AI发展
10月26日,在X上有三万订阅的Dwarkesh Podcast(矮人播客)主持人Dwarkesh Patel采访了谷歌DeepMind的创始人兼首席AGI科学家Shane Legg。
新智元
2023/11/13
3200
2028年人类将迎来AGI:DeepMind联合创始人长文预测未来AI发展
高盛观点:中国低成本AI模型或推动全球AI应用提速
DeepSeek为代表的中国公司已成功开发出成本远低于现有产品的先进生成式人工智能(AI)模型。高盛研究部认为,这一突破可能促进AI技术的更快采用,并对全球经济增长产生更大影响。
GPUS Lady
2025/03/03
1150
高盛观点:中国低成本AI模型或推动全球AI应用提速
这是硅谷狂人马斯克对未来做出的11个大胆预测,人工智能比核武器更危险
近几年以来,美国硅谷科技界领军人物、特斯拉和SpaceX首席执行官伊隆·马斯克(Elon Musk)在各种场合,对即将到来的新技术进行了一些大胆的预测,以下为他预测的核心内容: 1.早在2015年,伊隆·马斯克在接受Marketplace采访时表示:“在我看来,除了火箭,其它所有的交通运输工具都是毫无疑问的最终都会变成电动的,不是采用一半的电动,而是全电动。” 在今年7月份的美国州长级会议上,马斯克又重申了他的大胆预测,他表示飞机、火车、汽车、所有的船只,都将会变成全电动动力。 2.在今年7月28日
企鹅号小编
2018/01/19
7870
这是硅谷狂人马斯克对未来做出的11个大胆预测,人工智能比核武器更危险
AGI前夜的思考:2025年将出现真正的AI智能体,年轻人需要快速适应
2025 新年将至。对于新的一年和未来几年,你对 AI 领域有什么期待和设想呢?你是否认为 AGI 将要实现了而人类社会的一切都将因之而改变。
机器之心
2025/02/15
1250
AGI前夜的思考:2025年将出现真正的AI智能体,年轻人需要快速适应
特朗普欲将AI用于军事关键任务,兰德公司警告2040年前或导致核战争
---- 新智元编译 来源:gizmodo.com 【新智元导读】美国国防部副部长透露,特朗普政府对利用人工智能帮助军方更高效、成本更低地执行一些关键任务非常感兴趣,五角大楼已经准备在未来6个月内建成一个整合多个AI项目的新中心。于此同时,美兰德公司发布报告,警告说AI在军事任务中的应用可能增加核战争的风险。 据美国非盈利新闻调查组织CPI的报道,美国国防部的第二把手上周二透露,特朗普政府对利用人工智能帮助军方更高效、成本更低地执行一些关键任务非常感兴趣。 美国国防部副部长、前波音公司高管Patri
新智元
2018/05/29
6080
AI人物传:谷歌 DeepMind 联合创始人Shane Legg
Shane Legg 是人工智能领域的重要人物,作为 Google DeepMind 的联合创始人和首席 AGI 科学家,他在 AI 项目和科研中取得了显著成就。他领导了技术 AGI 安全团队,并在 AGI 的定义和分级框架上做出了重要贡献。Legg 参与开发的 AlphaFold 2 在蛋白质结构预测方面取得了突破性进展。他的工作不仅获得了加拿大奇点研究所研究奖,还在 2017 年获得了数字大师奖,并于 2019 年被授予英国帝国官佐勋章(CBE)。
AIGC部落
2024/11/26
1780
AI人物传:谷歌 DeepMind 联合创始人Shane Legg
奥特曼惊呼奇点临近!95%人类饭碗将被AI抢走,2028年百万AI上岗
昨天,OpenAI智能体安全研究员Stephen McAleer突然发出一番感慨:
新智元
2025/02/15
370
奥特曼惊呼奇点临近!95%人类饭碗将被AI抢走,2028年百万AI上岗
无人车通道三年后建成?这是一份Lecun点赞的新技术应用时间表
大数据文摘作品 编译:修竹、吕征达、王梦泽、笪洁琼、yawei 人们往往会低估新技术的概念从被验证到技术真正投入使用所需要的时间。这是预测人工智能未来七宗罪的第七罪。 “人类下一次登陆月球的时候将借助于众多人工智能和机器学习系统。” 这是本文作者(@rodneyabrooks)最近在推特上做出的一个有趣预测。 Rodney是一个理性主义者,他认为很多炒得火热的技术在商业运用上会遇到不小的阻碍,而研发周期无限加长,他在本文对无人汽车、超级高铁和人工智能做了相对保守的预测。但他又是一个乐观的技术信仰者,基于他对
大数据文摘
2018/05/24
5190
与OpenAI CEO萨姆·阿尔特曼对话:AGI将在10年后到来
现在让我介绍一下萨姆·阿尔特曼(Sam Altman)。萨姆是大家熟悉的连续创业者,他曾担任YC的总裁,现在是OpenAI的CEO,他还投资了包括Airbnb、Stripe等公司,甚至还参与了Heon这样的能源融合公司。他帮助建立了World Coin,一种新的加密协议,可以说他涉足过很多领域的投资。他可谓涉及众多领域,且都做得很好。欢迎萨姆!感谢他加入这一轮讨论。
AIGC部落
2024/09/30
1900
与OpenAI CEO萨姆·阿尔特曼对话:AGI将在10年后到来
奥特曼老黄齐预测:AGI五年内降临,代替95%工作!但马斯克断言AGI将被电力卡脖子
Claude 3、Sora、Gemini 1.5 Pro的纷纷出现,以及或许今年内就会被放出的GPT-5,让所有人都不约而同地隐隐感觉:我们似乎离AGI似乎越来越近了。
新智元
2024/03/13
1830
奥特曼老黄齐预测:AGI五年内降临,代替95%工作!但马斯克断言AGI将被电力卡脖子
【牛津调查:AI 超越人类编年史】柯洁之后,32个AI里程碑全预测
【新智元导读】人类纪元2017年,世界第一柯洁哭了,为自己 0:3 对 AlphaGo 的落败。有人解读说,这预见到了人族衰败的开始,和未来两个族群之间在智力上的天渊之别。AlphaGo 在档案上把这一天记录为“柯洁点”,意味着人类在智力上最后的辉煌和衰落的开始。“柯洁点”之后,AI 编年史将如何展开?在哪些时间节点上,AI 将实现对人类的超越?牛津大学最近完成了一项对机器学习研究人员的大型调查,调查内容是他们对 AI 进展的看法。 综合这些研究人员的预测,未来10年,AI 将在许多活动中表现超过人类,例如
新智元
2018/03/28
8780
【牛津调查:AI 超越人类编年史】柯洁之后,32个AI里程碑全预测
附录 人工智能2020年-2805年
本文为「darksee.ai」整理的数据。 MixLab无界社区是一所面向未来的实验室 以下为正文: 2020年,上海成为国家人工智能发展高地 ……2017年11月14日,上海推动新一代人工智能发展实施意见正式出台,提出全面实施「智能上海(AI@SH)」行动,到2020年,实现上海成为国家人工智能发展高地的总体目标,从政策上强调了人工智能具有的战略意义…… 原文 2020年,中国的人工智能总体技术和应用将与世界先进水平同步 ……中国国家领导人曾明确表示,人工智能是国家战略重点。依照今年7月中国政府发布的有关
mixlab
2019/05/05
9320
OpenAI将发布由o3 pro驱动的软件工程师? Firecrawl曾发布首个"限AI应聘"岗位。
OpenAI 可能计划在 2025 年第一季度末或第二季度初 推出 由 o3 和 o3 pro 驱动的 SWE (软件工程) 代理,声称其可以与中级工程师的能力相媲美,并可能对软件行业产生重大影响。
AI进修生
2025/02/06
960
OpenAI将发布由o3 pro驱动的软件工程师? Firecrawl曾发布首个"限AI应聘"岗位。
当前AI热潮能否扩展到AGI?——Reid Hoffman对话Greg Brockman
本文是一篇关于人工智能(AI)和通用人工智能(AGI)的讨论,由赖安·霍夫曼(Reid Hoffman)和格雷格·布罗克曼(Greg Brockman)进行的对话。以下是总结摘要:
AIGC部落
2024/10/25
1270
当前AI热潮能否扩展到AGI?——Reid Hoffman对话Greg Brockman
推荐阅读
AI 2027研究揭秘美国算力真相!中国全球AI专利Top1,但美国或以算力取胜
930
末日时间表来了!前OpenAI研究员76页硬核推演:2027年ASI接管世界,人类成NPC
800
硅谷钢铁侠马斯克:2030年AI样样都比人类强
8120
担心成为「AI界奥本海默」!DeepMind、Anthropic CEO同框,26年AGI降临?
680
OpenAI前员工预测:2027年AGI降临!GPT智商飙升,4年从幼儿园蹿到高中生
2580
马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转
3760
2028年人类将迎来AGI:DeepMind联合创始人长文预测未来AI发展
3200
高盛观点:中国低成本AI模型或推动全球AI应用提速
1150
这是硅谷狂人马斯克对未来做出的11个大胆预测,人工智能比核武器更危险
7870
AGI前夜的思考:2025年将出现真正的AI智能体,年轻人需要快速适应
1250
特朗普欲将AI用于军事关键任务,兰德公司警告2040年前或导致核战争
6080
AI人物传:谷歌 DeepMind 联合创始人Shane Legg
1780
奥特曼惊呼奇点临近!95%人类饭碗将被AI抢走,2028年百万AI上岗
370
无人车通道三年后建成?这是一份Lecun点赞的新技术应用时间表
5190
与OpenAI CEO萨姆·阿尔特曼对话:AGI将在10年后到来
1900
奥特曼老黄齐预测:AGI五年内降临,代替95%工作!但马斯克断言AGI将被电力卡脖子
1830
【牛津调查:AI 超越人类编年史】柯洁之后,32个AI里程碑全预测
8780
附录 人工智能2020年-2805年
9320
OpenAI将发布由o3 pro驱动的软件工程师? Firecrawl曾发布首个"限AI应聘"岗位。
960
当前AI热潮能否扩展到AGI?——Reid Hoffman对话Greg Brockman
1270
相关推荐
AI 2027研究揭秘美国算力真相!中国全球AI专利Top1,但美国或以算力取胜
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档