
走向未来
现代人工智能(AI),特别是深度神经网络(DNN),正在驱动一场技术变革。这场变革的燃料不是数据,而是计算。实现先进AI系统所依赖的计算规模,在几年前是无法想象的。训练一个前沿的AI算法可能需要耗时数月,成本高达数千万甚至数亿美元。这种巨大的算力需求,催生了专门为此优化的计算机硬件——AI芯片。
这份分析文章深入探讨AI芯片的本质、它们兴起的经济动因,以及它们为何成为国家竞争的关键战略资产。本文的核心论点是,半导体行业的基础性转变,即摩尔定律的放缓和制造成本的激增,终结了通用芯片的黄金时代。这为专用AI芯片的崛起创造了经济窗口。更重要的是,AI芯片(如图形处理器GPU、现场可编程门阵列FPGA和专用集成电路ASIC)与通用中央处理器(CPU)相比,展现出成百上千倍的效率优势。本文的PDF版本及所参考的来自CSET的有225项参考文献的72页重磅报告,都可以从“走向未来”【https://t.zsxq.com/xpWzq】知识星球中获取 。
这种效率优势并非锦上添花,而是决定存亡的关键。分析表明,只有使用最先进制造工艺(节点)生产的专用AI芯片,才能在经济上(主要体现在能耗成本)和时间上(训练与推理速度)使得大规模AI应用成为可能。这一事实导致了AI芯片的供应链——从设计软件、制造设备到晶圆代工——高度集中在美国及其盟友手中,形成了一个关键的战略咽喉,对未来AI的发展和应用具有深远的地缘政治影响。
从1960年代到2010年代,半导体行业在一个黄金定律——摩尔定律(Moore's Law)的指引下飞速发展。该定律指出,芯片上集成的晶体管数量大约每两年翻一番。晶体管的不断缩小,带来了速度更快、能效更高的计算单元。这一时期的进步主要由通用芯片(CPU)所代表。
在摩尔定律的鼎盛时期,CPU的性能提升速度极快。这种快速的迭代使得专用芯片的开发在经济上变得不划算。即使一款专用芯片在设计上能为特定任务带来效率提升,它所付出的高昂设计成本(NRE)很快就会被下一代性能更强、成本更低的通用CPU所淹没。CPU的规模经济优势(服务于个人电脑、服务器等海量市场)使得专业化的努力显得徒劳。然而,进入21世纪第二个十年,这一趋势开始逆转。这种逆转来自两个根本性的压力:物理极限和经济成本。

首先,晶体管的设计正逼近根本的物理尺寸极限。当晶体管缩小到只有几个原子的宽度时,诸如电流泄漏之类的物理问题变得极其棘手。工程师们不得不从平面结构转向更复杂的3D结构(如FinFET),未来甚至需要全新的纳米片结构。每一步深入,都带来了指数级增长的工程挑战。
其次,也是更关键的因素,是维持摩尔定律的经济成本正以不可持续的速度增长。半导体供应链的各个高价值环节——芯片设计、晶圆厂(Fabs)和半导体制造设备(SME)——的成本增长速度已经远远超过了整个半导体市场的增长速度。尖端晶圆厂的建设成本以每年约11%的速度增长,而芯片设计成本的年增长率更是高达24%。相比之下,全球半导体市场的年增长率仅为7%。这种成本的快速膨胀导致了行业的高度整合。例如,在先进光刻机领域,荷兰的ASML公司占据了事实上的垄断地位。在先进节点制造上,全球仅剩下台积电(TSMC)、三星和英特尔等少数几家参与者。

当CPU的性能提升(主要来自频率提升和晶体管密度增加)开始放缓时,它依靠规模经济碾压专用芯片的旧模式便宣告破产。专用芯片的有用寿命被拉长了,这使得为特定应用(如AI)支付高昂的设计和制造成本变得可行且必要。半导体行业的天平,开始从通用为王转向专用制胜。
AI芯片的崛起,是计算需求与硬件供给之间矛盾运动的必然结果。深度神经网络的计算需求,与传统CPU的设计理念背道而驰。
DNN算法的核心计算任务,本质上是海量的、相对简单的、高度并行的矩阵乘法运算(即乘法-累加运算)。无论是在训练阶段(用数据构建和优化模型)还是推理阶段(应用模型进行预测),算法都需要重复执行数百万亿次相同的计算。
而CPU作为通用处理器,其设计目标是为了优化串行任务和复杂逻辑。它的核心少而强大,并受到冯·诺依曼瓶颈的限制——即处理器和独立内存之间的数据交换延迟。用CPU执行AI任务,就像用一支管弦乐队的指挥(CPU)去搬运成千上万块砖头(AI计算),其效率极其低下。
AI芯片(或称AI加速器)则是为了解决这一错配而生的。它们通过几种关键的设计革新,实现了对AI任务的极端优化,构成了文件所称的AI芯片动物园(The AI Chip Zoo)。

这些不同类型的AI芯片,通过几种共同的技术手段实现了相对于CPU的巨大效率飞跃,文件中的基准测试显示,这种提升可达10倍到1000倍:
这种架构上的根本差异,使得AI芯片的效率提升是革命性的。文件指出,一个比CPU效率高1000倍的AI芯片,所带来的改进相当于CPU在摩尔定律下发展26年才能实现的成果。在CPU自身发展已然放缓的今天,这一差距是通用芯片永远无法弥补的。当前,AI芯片在底层解决了算力供给的关键瓶颈,使得训练出万亿参数级别的基础大模型在技术上成为可能。不过,当这些参数规模巨大的模型在投入实际应用时,其局限性也随之显现。资深人工智能专家王文广在其《知识增强大模型》、《比RAG更強:知識增強LLM型應用程式實戰》等著作中,深入分析了大语言模型从实验室走向产业时必须跨越的障碍。他指出,由于大模型在训练时对数据的依赖和黑箱结构,它们普遍存在两个核心固有特性:一是知识陈旧,即模型的信息截止于训练数据,无法感知实时变化;二是幻觉,即模型会生成结构完整但内容虚构或逻辑错误的答案。这些问题,严重制约了大模型在需要高准确性、可追溯性和最新信息的垂直行业(如金融、法律、科学研究)中的应用价值。
基于这一洞察,王文广提出了知识增强大模型的理论和实践框架,强调必须在高效的底层硬件之上,通过结合外部专业知识库和精密的知识检索机制,如检索增强生成(RAG)技术,来实时校正和丰富大模型的输出。这为硬件驱动的算力革命提供了上层的实践指导意义:AI芯片的效率提升不仅要服务于大规模模型的初次训练,同时在高效、低延迟地支撑像向量数据库、知识图谱和RAG系统这样复杂的、持续运行的知识检索和增强推理工作负载也大有可为。因此,对AI芯片的需求正在从单纯的训练加速,扩展到对复杂应用架构的异构计算、高带宽内存和低延迟检索的全面支撑,确保算力投入能转化为可靠的、具有商业价值的AI服务。
AI芯片的重要性不仅在于其专用性,更在于其对先进制造工艺的极端依赖。在AI计算领域,使用落后节点(Trailing-edge)芯片的总成本,远远高于使用先进节点(Leading-edge)芯片。
这一观点打破了够用即可的传统认知。人们可能直觉地认为,既然AI计算可以并行,为什么不能用大量廉价的旧芯片(如28nm或40nm节点)来堆叠算力呢?文件的成本模型给出了否定的答案,其关键在于区分了生产成本和运营成本。
文件的模型模拟了一个芯片设计公司(Fabless)在2020年设计一款AI芯片(以Nvidia P100 GPU为参照),并使其拥有在5nm节点下所能达到的等效晶体管数量,然后比较其在不同制造节点下的总成本。
将两者相加,我们得到了惊人的对比:
结论是,对于AI这种计算密集型应用,在典型的三年服务器更新周期内,使用90nm芯片,其总成本效益是使用最先进的5nm芯片的近33倍。这个经济模型揭示了AI发展的成本枷锁:
首先,时间成本。前沿AI算法的训练动辄需要数周甚至数月。如果使用效率低下的CPU或落后节点AI芯片,训练时间将延长数十倍甚至数千倍,这在需要快速迭代的AI研发竞赛中是不可接受的。
其次,经济成本。如DeepMind和OpenAI这样的顶级实验室,其数千万美元的支出中,很大一部分用于支付计算费用。如果这些计算成本再乘以数十倍,AI研发将变得几乎不可能(virtually impossible)。
因此,AI的进步被牢牢地捆绑在专用芯片和先进节点这两个要素上,两者缺一不可。任何无法获得先进节点(在文件撰写时指≤16nm)制造能力的实体,都无法在成本和速度上参与前沿AI的竞争。
AI芯片的极端重要性,及其对先进制造工艺的极端依赖,使其供应链成为全球技术竞争的战略焦点。文件(基于2020年的数据)明确指出,这条供应链高度集中在美国及其盟友手中,形成了对其他国家(特别是中国)的绝对优势。在2025年的今天,中国的国产供应链正在取得突破。
这条供应链的关键环节包括:
与此相对,文件分析了中国在同一时期的处境:
这种对比揭示了一个清晰的战略图景:中国虽然在AI算法和应用层面发展迅速,但在实现这些算法的硬件基础上,从设计工具、核心IP、制造设备到最终的晶圆代工,中国完全依赖于美国及其盟友的全球供应链。
2020年的时候,无论是华为的Ascend 910(7nm)、寒武纪的MLU100(7nm),还是地平线机器人的Journey 2(28nm),它们几乎全部依赖TSMC进行制造。这一高度集中的供应链,成为了一个显而易见的政策杠杆。通过控制EDA软件、SME设备或先进代工服务的出口,美国及其盟友有能力限制一个国家开发和部署先进AI系统的能力。强烈建议加入最具价值知识星球“走向未来” (https://t.zsxq.com/xpWzq),探讨生成式人工智能、大模型、AIGC、AI芯片和机器人等的产品、技术和应用实践,探讨如何使用各种不同的人工智能大模型和智能体来为工作增效,为生活添彩。立即加入“走向未来”知识星球,一起走向AGI的未来。
文件的分析逻辑严密且具有前瞻性。它从摩尔定律的放缓这一技术经济学基础出发,推导出了专业化计算(AI芯片)的必然兴起;接着,它通过一个精辟的成本模型,论证了AI计算对先进节点的绝对依赖性,彻底排除了使用落后节点弯道超车的可能性;最后,它将这一技术经济现实映射到全球供应链格局上,指出了美国及其盟友在AI硬件领域所掌握的结构性权力。
文件最终得出的结论是清晰而有力的:先进的AI芯片是实现大规模AI的必要前提,而这种芯片的生产能力高度集中。在AI时代,算力(Compute)不仅是技术问题,更是经济问题和安全问题。对先进算力供应链的控制,在很大程度上等同于对未来AI发展制高点的控制。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。