关于人工智能对人类的威胁,世界级著名科学家霍金生前就多次预言人工智能或将毁灭世界的可能性。他在生前曾发表过这样的观点,人工智能或将是我们身上最好或最糟糕的事情。如果我们不小心控制机器人和人工智能发展,那么这很可能是我们最后一次采取行动。现在的人工智能在语音识别、回答问题和翻译等方面已经具备了较高的智能,通用人工智能的发展速度比人们想象的要快。因此,我们需要重视这个问题。
他还认为:核对抗、环境灾难以及机器人的威胁几乎不可避免地会在未来的某个时间使地球陷入危机。在他的观点中,失控的气候变化对地球的威胁是最大的。
沿着霍金的思路,我们可以反思一下人类文明的发展历史:第一阶段工具时代,大致为250万年前-公元前3500年;第二阶段农业时代,公元前3500年-公元1760年;第三阶段工业时代,为1760年-1970年;第四阶段知识时代,1970年-2100年。我们发现工具时代经历了250万年,农业时代经历了近5000年,工业时代200年,知识时代130年。三个结论:一是代际间隔越来越短,二是文明程度越来越高,三是对地球生态的破坏越来越严重。按照这个趋势推导下去,最终结论就出来了:人类文明程度达到很高水平,可是地球将变得不适宜人类居住。要么毁于核战争,要么气候不再适合人类生存,要么机器人将统治人类。前两种情况已经越来越现实地摆在了人类面前,而第三种情况就是我们正在讨论的可能性!
我在30岁左右时,就开始有一个声音经常在脑海里回荡:人类终将会毁灭我们自己!我不知道这个声音来自哪里?是潜意识?还是基因?反正这句话越来越清晰,也越来越被快速演变的世界所证实。我常想:什么是地球最佳的生态环境?那一定是远古时期,人类还处于猿猴状态,只不过是地球生态链中一个普通的环节。他们也像其他猴子一样受到猛兽的威胁,地球生态在自然食物链中缓慢地进化。突变发生在猿猴智力的进化,当他们的智力水平超过哺乳类动物的某个阀值时,事情发生了不可逆转的变化!人类突然跳到了食物链的顶端,他们依靠工具可以制服所有曾经威胁他们的猛兽。为了自己更好生存,人类开始规模化地破坏环境。工业化后更是以前所未有的速度把绿洲变成钢铁、水泥、化工的世界……再后来还开发了核能、计算机、人工智能。人类在毁灭自己的路上走得越来越远了。
总结来说,霍金的预言绝非虚幻,而是以科学家一生积淀做备书的。目前生成式AI模型也确实达到了某种临界值。我们还是应该在大规模使用前,先做好风险控制,让人工智能在安全、可控的状态下为人类服务。
领取专属 10元无门槛券
私享最新 技术干货