首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >AI接管重要审批?先过这三道“坎”再说!

AI接管重要审批?先过这三道“坎”再说!

作者头像
数智转型架构师
发布2025-11-24 17:40:07
发布2025-11-24 17:40:07
30
举报

最近,关于AI的热度居高不下。无论是GPT-5展现出的惊人多模态能力,还是各种AI Agent(智能体)的涌现,都让“AI是否会取代人类工作”这个话题,甚嚣尘上。

许多老板感到兴奋,正摩拳擦掌,用AI实现减员增效,似乎那个无人公司的梦想就在眼前一样。也有许多人感到焦虑,觉得自己的饭碗可能随时要被AI抢走。不过,我想很多人对AI技术的发展有点超预期了,所以我今天想给那些狂热的AI信仰者泼一点“冷水”降降温,或者说,给大家分析一个更“清醒”的现实:至少在目前阶段,要让AI真正“上岗”直接代替人类,尤其是接管一些关键的审批、重大的决策,我们中间还隔着几道难以逾越的“坎”。

我先说一下我的观点:当前乃至未来很长一段时间,AI更像一个无所不能的“超级助手”、一个洞察力惊人的“管理顾问”,以及一个能提供多元视角的“决策辅助者”。它更适合担任“副职”或者“第三方顾问”的角色,而非直接“一把手”。

为什么这么说?我想,除了大模型自身的局限性以外,还有更多深层次的原因值得我们深思。或者说,AI要真的上岗工作必先解决下面这三道坎:

第一道“坎”:大模型的“幻觉”问题

这是我们技术圈内谈论AI最普遍也最核心的一个问题——“幻觉”

所谓“幻觉”,指的是大语言模型在生成内容时,会一本正经地编造出事实错误、逻辑不通或者根本不存在的信息。这就像是一个非常聪明、口才极佳的人,但也偶尔会“一本正经地胡说八道”。

在很多对“差错容忍度高”的领域,比如内容创作、文案生成、头脑风暴,AI的幻觉问题可能只是小插曲,甚至有时会带来一些“惊喜”或有趣的灵感。但试想一下,如果我们将AI应用于以下这些对差错容忍度几乎为零的领域,后果会是怎样?

  1. 财务审计与审批:报销单的金额审核、合同条款的合法性校验、财务报表的数字核对……哪怕一个小小的“幻觉”,导致一笔错误的支出通过,或者一个关键条款被忽略,都可能给企业带来直接的经济损失甚至法律风险。当AI一本正经地告诉你“这笔费用符合规定”,而实际情况并非如此时,谁来承担责任?
  2. 生产决策与质量控制:在制造业,AI如果基于“幻觉”给出了一个错误的生产指令,或者错误判断了产品质量,轻则导致一批次产品报废,重则引发安全事故。特别是在钢铁、化工、制药等行业,每一步决策都关乎巨大的成本和生命安全。
  3. 医疗诊断与治疗方案:尽管AI在影像诊断上展现出超越人类专家的能力,但如果让AI独立给出治疗方案,一旦出现“幻觉”导致误诊,那将是无法承受之痛。生命面前,任何一点不确定性都是巨大的风险。
  4. 法律判决与合规审查:AI在辅助法律研究、生成法律文本方面有巨大潜力。但让它直接进行法律判决或复杂合规审查?一个基于“幻觉”的错误解释,可能改变一个人的命运,甚至影响整个公司的未来。

在这些领域,我们需要的是100%的准确性、可靠性和可解释性。目前的大模型,虽然能力惊人,但其内在的“黑箱”属性和随机性,使得它还无法满足这些近乎严苛的要求。我们无法完全信任一个偶尔会“撒谎”或“编故事”的系统,去掌管核心的、零容忍的决策权。

第二道“坎”:人性的“抗拒”与组织变革的阵痛

就算AI技术足够成熟,能够最大限度地减少“幻觉”,但让它真正“上岗”,也绝非易事。这里面,更复杂、更S深层的问题,是“人”的问题

  1. “躺在习惯温床”的本能抗拒: 人类是习惯的动物。长久以来,我们习惯了由人来决策,由人来审批。突然要让一个看不见摸不着、没有情感的“机器”来代替自己的工作,很多人内心深处会产生本能的抗拒。
    • 领导层:他们担心失去对团队和业务的掌控力,害怕AI决策带来他们无法理解或预测的后果。
    • 中层管理者:他们的价值往往体现在协调、判断和决策上。AI的介入可能让他们感到自己的核心价值被削弱,从而产生抵触。
    • 基层员工:最直接的担忧是“饭碗不保”。即使解释了AI是助手,但这种潜在的威胁感也会让他们对AI心生警惕。
  2. “信任缺失”与“责任归属”的困境:
    • 信任度:员工不会轻易信任一个机器。当AI给出审批结论时,如果与他们的经验相悖,他们会倾向于相信自己的经验,而非AI。这种信任的建立,需要漫长的时间和无数次的成功验证。
    • 责任归属:如果AI决策失误,责任该由谁来承担?是AI开发者?是部署AI的公司?还是最终批准AI方案的人?在现有法律框架和伦理体系下,这是一个待解的难题。没有明确的责任归属,再好的AI也难以承担关键职责。
  3. “情商”与“灰色地带”的缺失: 很多工作,尤其是涉及审批、管理和决策的工作,不仅仅是基于确定的规则和数据。它还涉及到:
    • 人情世故与情绪管理: 一个特批需要考虑员工的特殊困难,一个复杂的供应商合同需要平衡各方利益和潜在关系。AI能理解“人情味”吗?能感受到决策背后的情绪和博弈吗?
    • 经验与直觉:很多资深管理者,他们的决策中的一部分是需要依赖多年积累的经验和对市场、对人性的直觉判断做出的。这种“只可意会不可言传”的智慧,AI目前还难以习得。
    • 伦理与价值观判断:很多复杂决策,没有绝对的对错,只有价值取舍。AI能进行复杂的伦理判断吗?它的价值观从何而来?我们如何确保它的价值观与企业乃至社会的价值观相符?

这些“人”的因素,远比技术问题更复杂,也更难以通过简单的升级迭代来解决。它需要组织文化的重塑,需要管理者和员工心态的转变,甚至需要整个社会对AI伦理的深刻反思和共识。

第三道“坎”:复杂世界的不确定性与涌现性

除了上述两点,还有一个深层次的原因:真实世界的复杂性、不确定性也对AI接管人类重要工作造成重大障碍:

  1. 非结构化与混沌数据:AI能很好地处理结构化数据,但在真实的商业世界中,大量信息是非结构化的:客户的抱怨邮件、市场瞬息万变的传闻、竞争对手的一次非正式对话、员工在饮水机旁的闲聊……这些“噪音”中往往蕴藏着很多只能意会的“潜台词”和其它关键信息,能够影响决策。AI在整合和理解这些混沌信息方面,依然面临巨大挑战。
  2. 危机处理与临机应变:当一个突发危机出现时,例如供应链中断、核心人才流失或者突如其来的政策变化,需要的是人类的快速应变能力、跨领域整合信息的能力、以及在信息不完全的条件下做出“最好选择”的勇气。AI的决策是基于其训练数据和算法规则的,它可能无法处理这种超出其“认知范围”的、突发的“黑天鹅”类事件。
  3. 创新与突破:真正的创新往往来自于对现有规则的打破、对常规思维的超越、以及灵光一现的顿悟。这需要人类的想象力、好奇心和冒险精神。AI目前更多的是在已有知识体系内进行优化和组合,其“创造性”更多体现在效率和规模上,而非颠覆性的模式创新。
写在最后:AI是盟友,而非终结者

所以,回到我们最初的问题:AI何时才能上岗代替人类去工作?

我的答案是:在可以预见的未来,AI不会完全取代人类,尤其是在那些核心决策、需要复杂情商和伦理判断的岗位上。

但同时,我们也必须认识到,AI正深刻地改变我们的生活和工作方式。它会接管那些重复性高、流程化的工作,让我们的效率呈指数级增长;它会成为我们获取信息、分析数据的第二“大脑”,提供前所未有的洞察力;它会是我们的“超级助理”,将我们从繁琐的事务中解放出来,去从事那些真正需要创造力、战略思考和人文关怀的工作。

因此,与其焦虑,不如积极拥抱。将AI视为我们数智化转型道路上的重要盟友,而不是一个终结者。 学会如何与AI协同工作,驾驭AI工具,将成为未来职场的核心竞争力。

我们每个人,都应该努力成为那个能“指挥”AI的“人类船长”,而不是被AI浪潮席卷的“乘客”。

你说呢?

你认为在你的行业或岗位中,AI最快能替代哪些工作?最不可能替代的又是哪些?你对AI的广泛应用,是感到焦虑多一点,还是兴奋多一点?

欢迎在评论区分享你的看法和思考,我们一起探讨这个充满挑战与机遇的未来!如果你觉得这篇文章对你有启发,也请别忘了点个赞,并转发给你的朋友们!

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-11-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数智转型架构师 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 第一道“坎”:大模型的“幻觉”问题
  • 第二道“坎”:人性的“抗拒”与组织变革的阵痛
  • 第三道“坎”:复杂世界的不确定性与涌现性
  • 写在最后:AI是盟友,而非终结者
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档