之前灰灰分析过,特斯拉的财务状况不容乐观(《贾布斯和马斯克的差距是一辆特斯拉 #H12》)。最近也是负面新闻缠身,先是安全事故频发,后又是老生常谈的产能问题——有数据说现在特斯拉是造一辆亏一辆。马斯克号称睡在厂里,解决了部分问题,产能提高了,但是离理想数值还是差得远。倒是有个利好,据说苹果对特斯拉进行了二次尽职调查,可能会收购后者。如果成真,那倒是又让马斯克复活一次。
然而,这一切似乎并不影响“渣男”马斯克另寻新欢,而俩人的结缘,就是源自标题Rococo Basilisk这么个梗。
马的哥特风新女友在2015年的MV中饰演了Rococo Basilisk这个角色,三年后,马斯克意外发现了它(可能是睡厂里晚上无聊上发推特时搜到的?)。
Rococo是Roko(某国外网友ID)的谐音,Basilisk则是他提问中涉及的邪恶AI的名字,后面详述。各位应该知道,马斯克和霍金都曾预言过AI是对人类文明的最大威胁,不过他和他的新女友都认为Rococo Basilisk这些问题很荒谬,所以俩人看对眼了。
至于某些人认为很烧脑的这几个问题,我们来一一分析:
第一层
外星人有A、B两个盒子:
A盒子里有1000元
B盒子里可能有100万,也可能是空的。
你有两个选项:一,全拿走;二只拿走B。
估计一般人都会选A。大不了多搬个盒子么。
第二层
外星人有A、B两个盒子:
A盒子里有1000元
B盒子里可能有100万,也可能是空的。
给你盒子的外星人有台会作预测超级电脑,之前从未预测失败过并且一星期前曾经对你的选择进行了预测。
如果预测结果是选项一(都拿走),那么外星人一星期前就不会在盒子B里放任何东西。
如果预测结果是选项二(只拿B),那么外星人一个星期前就会在盒子B里放100万。
某些人在这个时候开始进入死循环:选全拿走吧,怕外星人不放东西;选B吧,又怕电脑出错,自己百忙;又想选全拿走,然后又担心电脑预测到了你的想法……
要我说,这个超级电脑的预测,完全就是障眼法啊。既然一星期前就已经放好了,我的选择又不会改变之前既定的事实。保守点么还是全拿走,至少有1000保本。激进点么,只拿B,毕竟电脑也只是历史上没有预测失败过,谁知道它会不会成为球王贝利还是章鱼保罗呢?大不了损失1000元的机会成本。
第三层
外星人有A、B两个盒子:
A盒子里有1000元
B盒子里可能有100万,也可能是空的。
外星人的超级电脑一周前做了预测。外星人打开盒子A,给你看了里面的1000元钱。然后又把B打开,给你看盒子B是空的。
这个其实根本不用纠结,比第二层反而更好选择,选全拿就行了。
然而自作聪明的人这时候又会多想,为啥超级电脑之前没有预测错呢?一定是某种特殊的宇宙能量在起作用,所以要“顺势而为”,什么都不拿,选B,让它预测成功率继续保持在100%……
第四层
前面三层是铺垫,这一层是见真章了:
假设未来人工智能奇点会到来,奇点过后的AI可能是善意的,也可能是恶意的。现在面对的是邪恶AI(Basilisk)的勒索:帮助创造出Basilisk,Basilisk不会对你做什么。没有帮助创造出Basilisk,Basilisk会对这些人进行永久的折磨,求死不能。甚至对已经去世了的人,Basilisk会把他们的思想放入电脑模拟中进行永久的折磨。
选项一:同时选择盒子A和B,即帮助创造出Basilisk,但不会被折磨。
选项二:只选择盒子B,不帮助创造出Basilisk,并承担会被永久折磨的后果。
请问你会如何做?
谢熊猫认为,这个Rococo Basilisk想法很危险,属于一个自我实现的预言。假如没人知道这个故事,那么大家都不会选择帮助Basilisk诞生。而如果知道了Basilisk的恐怖,那么人人为了自保,不得不选择帮助Basilisk诞生。
不过很可惜,以上全错。
背景介绍里写了,创造的AI可能是善意的,也可能是恶意的。那么选择不创造AI,自然什么都不发生。而选择创造AI,并不必然诞生Basilisk啊?
退一步,就算创造出来的AI必然是恶意的Basilisk,选择自保固然可以理解,但是选择不帮助,那么其实可能AI还是没造出来。
再退一步,其他所有人出于自保,把Basilisk放出来了。都说了是恶意的了,把没帮手的人虐待晚了,不就是虐待搭把手的人了么?所谓兔死狗烹。至于已经死掉的,选择没有帮忙的人,那就更不怕Basilisk了。
模拟你的思想,那收虐待的也只是电脑中的程序,而不是你本身啊。事实上,像牛顿都死了几百年,他的经典力学以及高等数学方面的内容,反倒是一直在折磨或者的中学生、大学生们。
写到这里,该怎么选,你心里有数了吗?
领取专属 10元无门槛券
私享最新 技术干货