一.上帝与魔鬼
17世纪时,法国哲学家帕斯卡在他的书中曾给出了应该信仰上帝的实用性论证:
如果上帝不存在,那么信仰或不信仰上帝没有坏处也没有好处。如果上帝存在,那么不信仰上帝将会有坏处,而信仰上帝会有好处。
可能在很多人眼中,上帝等各种神是个能给我们优惠券的存在。从利益最大化的角度出发,最佳的选择就是信仰上帝。
如果我们把这一思想实验的主角换成魔鬼呢?对于这个魔鬼而言,人类只有两种选择,被奴役or被奴役折磨。那么,我们是否还要选择信仰它呢?
从理性的角度而言,如果这一魔鬼不存在,那么信仰或者不信仰既没有坏处也没有好处。但如果这一魔鬼存在,那么信仰它则只会受奴役,而不信仰它就会被奴役而且被折磨。
从利益最大化的角度而言,我们的理智的选择就还是信仰它。
再向下一层,如果这个魔鬼是我们自己制造的呢?
假设我知道别人在制造一个魔鬼,我还知道他早晚会成功,而且更悲催地,我无法阻止他。在这个情况下,我该如何站队呢?
最明智的站队选择,就是帮助他去制造这个魔鬼。
那么我们就陷入了马斯克的恐怖博弈中。
二.人造的魔鬼
马斯克的蛇怪段子,就是当这个魔鬼是AI的时候的博弈。这个囚徒困境式博弈的结果只有两个:坏和更坏。
当然,为了让这个段子成立,这个故事还需要三个前提。
1.邪恶AI的折磨勒索威胁是无处可逃的。
2.邪恶AI是有一定的概率甚至迟早一定会被造出来的。
我们先看第一个。
1. 邪恶AI的折磨勒索威胁是无处可逃的。
邪恶主角威胁成立的重要因素,就是即使一个人死了,这个AI也可以复制并折磨他的替身。这个可以分为以下两小条:
1.1 邪恶AI是可以模拟这个宇宙进而模拟你我的。
1.2 折磨我的复制品就等于折磨我。
在我看来,这两条都不成立。
对于1.1,一个宇宙之内的存在物是无法完全模拟这个宇宙的。因为它不但要对整个宇宙的每个粒子的状态进行记录,而且要针对每个粒子用一个存储单元存储其状态,这就像大力士参孙要把自己举起来一样,宇宙之内的存在怎么可以把宇宙囊括在内?我们所能做的只是对宇宙的粗略模拟。
对于1.2,与此类似的是传输人体的实验:如果扫描你身体的所有原子状态,根据这些信息复制一个你,最后杀掉原来的你,你会愿意吗?
这里涉及到的问题就是何为自我。在我看来,自我的最重要性质就是自我意识的连续性,我之所以成为我,是因为我的人生经历是独一无二的。即使克隆一个我甚至是我的同卵双胞胎兄弟,他的成长轨迹不可能和我一样,因此也不是我。而从开始制造我的复制品的那一刹那,我和我的复制品就走向了不同的人生轨迹。所以那个复制品与我不是一个人。
再考虑到杀掉原来的我(也就是现在在打字的我)会很疼,我当然不愿意。
所以呢,超级AI中模拟的那个人,自然也不是我。何况人家那么闲得没事干,模拟整个宇宙就为了去折磨一个对它的出现做不了啥贡献的小小喽啰。我感觉我还没重要到那个程度……
再看第二个:
2. 邪恶AI是有一定的概率甚至迟早一定会被造出来的。
作为一个AIer,我并不认为我们可以造出来一个超级智能尤其是一个可以囊括宇宙的超级智能。
先从比囊括宇宙的AI弱的超级AI说起。
现在提到的人工智能概念可以分成两大类:强/弱人工智能。前者就是电影或者大众想象中的超人式AI,而后者是设计问题求解器,解决生产生活中遇到的数据处理问题,也是我们这群PhD在跳的坑。由于媒体的宣传,AI已经被玩坏啦。一提到AI,很多人就会想到终结者、超级赛亚人、金刚葫芦娃。尤其是因为霍金和马斯克的倡导,AI危险论更是深入人心,仿佛我们正在通向终极智能似的。
然而在人工智能学科的现实却是,我们至今还不知道是否会实现超级AI,如何实现也就成了自言自语。这不像500多年前的日心说与地心说之争,虽然人们不知道到底是太阳围绕地球转还是反之,但是,我们可以知道,这个问题是有确切答案的——总有一天我们可以飞出去看看是什么样子——即使飞不出去,这个问题也是有确切答案的。然而,我们能实现超级智能吗?尚待商榷。
个人拙见,这个问题的答案更有可能是否定的。
哎呀,要想证明一个事情是不可能的,很难啊。比如一种可以学习如何学习的机器,人类真的做不出来吗?如果不计人力物力,完全模仿一个大脑真的也不可能吗?而做出的这个机器是有意无意邪恶的可能性有多大?
开尔文因为说过“不可能有比空气重的飞行器”而成为笑谈,不过幸亏我名气小脸皮厚,即使说错了也没多少脸可以丢。从信息处理系统的角度分析,人脑和算法都可以看作一个信息处理系统,不同系统都预制了不同的价值函数,而系统的学习训练过程就是最优化价值函数的过程。在此价值函数下,系统的决策结果对于它本身是对的。在AI领域有个悖论,对人容易的对AI难,对AI容易的对人难,这是因为不同的系统适合处理不同的问题,所以不会出现个什么东西可以解决所有问题。
从进化的角度看,没有任何一种生物可以占领所有的生态位。即使是恐龙,它也无法取代细菌,植物等等在自然界中的作用。哲学从巫术中分离出来,巫术在现代社会依然存在,科学从哲学中分离出来,哲学的地位也依然无可替代。一个超级AI系统,可以占领问题的所有生态位吗?它会完全替代人类而且还与人类为敌吗?如果模拟人脑,模拟出来的能够和原始的完全等价吗?
在我看来,人与人工智能更有可能是共生的关系。作为两种根基不同的信息处理系统,各有其适合处理的问题,也各有其弱点。人类与机器的关系很有可能像这棵生命树,人类占据一小枝,AI也占据另一小枝。
现代生物学推断的生命树,各生物由共同原始祖先演变而来,每种生物占据不同的生态位。
顺手送个助攻,为什么很多人(尤其是西方文明)觉得超级人工智能会消灭人类呢?我觉得这和西方思维中非此即彼的二分思维,或者零和博弈思维有关。比如入侵美洲后要消灭土著,或者认为中国的发展将会损害发达国家的利益。这种思维方式在人工智能上的体现就是相信人工智能威胁论,而媒体宣传更是使得电影中的强人工智能毁灭人类的形象深入人心。
人类对实现强AI的信心,与其说是低估了人类的复杂,不如说是高估了人类的能力。而人们对AI的恐惧,更可能是对越来越脆弱的社会的恐惧。现代人类社会建构在电力、网络系统等等上面,牵一发而动全身,如果把这些系统的控制权交给一个傻乎乎的AI,岂不是要天下大乱?
三。所以,这真是个秀恩爱的段子啊
如果一句话总结下蛇怪段子,就是将囚徒困境推广到了是否该信仰暗黑版上帝的情况。马斯克的段子,真的是个成功人士撩妹的段子啊,我等学渣只能膜拜。本人并不担心人类真的会在AI领域创造这样一个蛇怪。相反地,我在这里看到了一个精致脆弱与光明共存的前景。
当然,也有可能是学识浅薄无法看到真正的未来。
以及,其实本文是一个AI写的,以呼吁大家赶紧来AI领域投资。
四。与其担心蛇怪,不如担心人性
欲使其灭亡,要先使其疯狂。
科技无好坏之分,关键看人如何使用。
科技本身有伦理规范,但绑架上资本之后,就不知会出什么幺蛾子了。
在疫苗化水,北极都到30多度,塑料垃圾快比鱼多的时候,与其担心邪恶AI上帝,不如担心人性。
我们的骄傲与无知,会把我们带到何处?
投稿请后台留言“投稿”
完
领取专属 10元无门槛券
私享最新 技术干货