

题图摄于香港
周末了,写一篇非技术文章,说说经济学家怎样看待AI对社会的影响。
最近两年,关于AI会“抢走多少工作”的讨论几乎成了社交媒体的流量密码。有人预言90%的岗位将被替代,也有人嘲笑这是“新卢德主义”的焦虑。
但在这些喧嚣之中,真正让我觉得值得认真对待的,是2024年诺贝尔经济学奖得主、MIT教授达龙·阿西莫格鲁的声音。他在近10年间密集发表了一系列关于AI与劳动力市场的研究,结论相当冷。
他不唱衰技术,也不盲目乐观。他更像一个冷静的系统工程师,拆开AI这台机器,追问一句:它到底在为谁运转?
要理解阿西莫格鲁的研究,得先接受他的一个基本框架:评估AI的价值,不是看它"多聪明",而是看它如何重新分配生产过程中的"任务"。
这听起来有点抽象,打个比方:想象一家医院的放射科。每天有大量CT影像需要阅读——这是一个具体的"任务"。AI可以接手这项任务(自动化),也可以给医生一个辅助工具、让他们能处理更复杂的病例(增强人类)。这是两条完全不同的路,对医生的就业、收入和职业发展,影响天差地别。
在他的任务模型(Task-Based Model)中,技术通过四种方式影响劳动力市场:
历史告诉我们,真正让工资增长、就业扩张的,从来不是自动化,而是第四点——新任务的涌现。工业革命替代了纺织工人,却也催生了工厂管理员、铁路调度员、会计师这些全新职业。
问题是:当前的AI浪潮,更像哪种情况?
阿西莫格鲁在2024年5月的工作论文《AI的简单宏观经济学》给出了一个预测,堪称当年经济学界最具争议的数字之一:
未来十年,AI对全要素生产率的提升上限,仅为0.66%。
全要素生产率(TFP)是经济学中衡量"效率提升"最核心的指标——简单说,就是在投入不变的情况下,能多产出多少。0.66%意味着什么?相比之下,互联网革命在其鼎盛期推动美国TFP年均增长超过1%,且持续了超过十年。
更严峻的是,如果考虑到AI真正难以攻克的领域——那些高度依赖语境判断、需要复杂社会互动的任务,这个数字可能下滑至0.53%。
他同时预测,未来十年AI能真正影响的工作任务约占总量的5%,对全球GDP的贡献约为1%。
这些数字,与"AI将颠覆一切"的叙事之间,存在着令人不安的鸿沟。
阿西莫格鲁提出了一个精准的概念——"平庸自动化"(So-So Automation),这或许是他整个研究框架中最具实践价值的洞察。
"平庸自动化"指的是:技术上可以实现、但效率并没有实质提升的自动化。它不是因为技术能做得更好而替代人,而是因为替代人可以省钱——在工资成本高昂、自动化税收优惠充分的环境下,这种替代在账面上是合算的,但对整体社会效率几乎没有贡献。
举个例子:银行用AI客服替代人工座席。从财务报表看,省下了人力成本。但大量用户投诉处理效率下降,复杂问题无法解决,客户满意度下滑。这种"自动化"创造的价值,可能远低于其消耗的社会成本。
更值得警惕的是,它还会造成双重损失:资源从可能真正创造价值的领域被抽走,而被替代的劳动者则面临技能贬值、收入下降的困境。
谈到收入不平等,大多数人的直觉是:AI替代了低技能工人,导致他们收入下降。但阿西莫格鲁的分析更为微妙——AI的冲击,精准地指向那些工资中含有"租金"的岗位。
什么是工资"租金"?经济学上指的是高于市场最低竞争水平的那部分薪酬。通常,这种"租金"来自于工人多年积累的专业技能、与雇主长期形成的信任关系、或者强势工会的谈判力量。
自动化往往优先攻克那些薪资相对较高(即含有较多"租金")的中等技能岗位——因为那里替代收益最大。当AI接管这些任务,工人的议价能力随之瓦解,原本属于工人的那部分收益,被系统性地转移给了资本持有者。
这不是零和游戏中的"输赢",而是一种制度性的收益再分配——静悄悄发生,却影响深远。
阿西莫格鲁在最新的讨论中还补充了另一个维度:AI模型的训练,依赖于海量的人类知识、创作和数据。但这些数据的生产者——作家、教师、工程师、普通网民——从未获得任何报酬。这是一种隐形的、大规模的价值抽取。
如果说经济层面的担忧还停留在分配问题上,那么阿西莫格鲁2025年的研究则触及了更深层的政治结构。
他的核心论点是:AI算法的设计逻辑,系统性地服务于平台利益,而非公共利益。
社交媒体的推荐算法,为了最大化用户停留时间,倾向于推送那些激发强烈情绪反应的内容——愤怒、恐惧、对立。久而久之,用户被困在"回音室"中,只接触到与自己立场相符的信息。选民观点日益极化,政党为了迎合基本盘,不得不采取更加极端的立场——这是一个令民主运转失灵的恶性循环。
更直接的威胁来自精准政治广告:AI驱动的用户画像,使政治组织能够以极低成本、极高精度地向特定人群推送定制化信息。在缺乏监管的环境下,这成为操纵公众认知、削弱民主辩论公正性的有力工具。
阿西莫格鲁在其著作《权力与繁荣》中提炼了一个历史规律:技术只有在精英被迫与公众分享权力时,才会服务于公共利益。 当AI的开发权高度集中在少数科技巨头手中,缺乏有效的外部制衡,这一条件就难以成立。
阿西莫格鲁并非悲观主义者。他明确区分了"技术的宿命"与"制度的选择"——前者不存在,后者大有可为。
第一,税制中性化。 目前多数国家的税收体系,对劳动力征税较重,而对资本支出(购买设备、软件)给予大量抵扣。这等于在制度层面补贴自动化。改革税制,使雇人与用机器的成本在税后层面趋于公平,是纠偏的第一步。
第二,研发激励转向。 政府资助的科研方向,应从"如何替代人类"转向"如何扩展人类的能力边界"。辅助医疗诊断而非替代医生、个性化教育工具而非替代教师——这类"人类互补型"AI值得优先投入。
第三,算法透明度与问责。 对社交媒体平台实施更严格的信息披露要求,打破算法黑箱,是保护公共讨论空间的必要手段。
第四,劳动者参与技术决策。 推动工人代表进入技术引入决策的流程,确保AI不仅是管理层降低成本的工具,也是提升工作质量的手段。
阿西莫格鲁三年研究的核心信息,可以被压缩成一句话:
我们正在走向的那个AI未来,不是技术决定的,而是我们选择的。
如果按照当前的惯性走下去,最可能的结局是:生产率小幅提升,收益高度集中,不平等进一步扩大,民主制度承受更大压力。
这不是灾难,但它远远低于AI本可以带来的潜力。
那个更好的结局——技术真正服务于大多数人的繁荣——并不遥远,但它需要清醒的判断、有力的制度,以及拒绝被技术乐观主义叙事完全淹没的勇气。
毕竟,工具从来不决定命运,使用工具的人才决定。
参考文献:
Acemoglu (2024) "The Simple Macroeconomics of AI", NBER w32487;
Acemoglu & Restrepo (2025) "Tasks At Work", NBER w32872;
Acemoglu & Johnson (2023) "Power and Progress";Acemoglu (2025) "AI and Social Media: A Political Economy Perspective"