第一个思想实验:图灵测试
想象这样一个场景:你坐在一间屋子,通过键盘-屏幕与另一间屋子的对象交流。如果你无法判别与你交流的对象是人还是机器,那么就可以说机器通过了测试,拥有与人等价的智能。
所以通过了“图灵测试”的“物种”就能被认为是人了?
不是的,图灵测试只是做到了判别机器是否拥有智能(thinking),并未涉及机器能否像人一样获得“意向(identionality)”、“意识(consciousness)”乃至“意志(will)”。
解释一下,所谓意向(identionality)就是心智在场(mind)、表达、代表事物的能力;所谓意识(consciousness ),就是知道“自我”;所谓意志(will),就是自主选择。
基于此,人工智能被分为强人工智能和弱人工智能。
第二个思想实验:中文屋子
想象一间屋子,里面有一个人那就是你,但是你一点也不懂英文,一沓纸,一支笔,一个中英文对照表。
人从门缝里塞进纸条,上面是用英文提的问题。你用提供的对照表查出与其对应的中文问题,给出中文答案,再用对照表查出对应的英文,抄写在纸条上塞回门缝。
回答完美无缺,屋外的人无法分辨屋里的是人还是机器,于是图灵测试通过。
尽管这场“对话”结果非常完美,但是这过程里并没有涉及到一点“理解(understanding)”——你并不懂英文。
这一过程你可以很清楚的明白“机器人”的内心是怎样的,其中并没有任何智慧可言,你所用到的纸、笔、对照表并没有“理解力”,中文屋子只有计算力,没有理解力。
发明这一思想实验的哲学家赛尔因此得出结论,没有理解就没有意向,也就不存在真正的思维,更没有意识、意志,这些层层递进的高级人类智慧。他宣布,中文屋子实验说明,哪怕通过图灵测试,机器还是机器,不会拥有与人等价的智慧,最多只是貌似而已。
我呢,觉得他高兴得太早了,上述的实验我亲身做过,不就是我们修改论文过程减少重复率的伎俩嘛,把中文翻译成英文,然后用翻译好的英文在转换成中文,一个简单的翻译机器能够干到的,充其量不过是弱人工智能的活,我想赛尔应该是没有见识过现如今的强人工智能。好嘛,那就再来一个思想实验。
第三个思想实验:亿年机器人
如果你想亲身看到一亿年后的地球,现在能够想到的办法就是把你休眠,你爬进休眠舱,然后保存一亿年。
那么,问题来了,一亿年对于我们来说太久了,很多事情经过时间的拉长就变得越来越不可控,要保证你能在一亿年后还能顺利醒来,对于休眠仓的要求就要非常非常高。首先要保证能源不断,要能经得起周围环境的变化,万一受损还要能自我修复,等等等等。
未来无从预测,那怎么办?
那就制造一个能感知环境、回避风险、寻找资源的机器人,把休眠仓放进去。
那讲到这里,你应该能明白点了。不动,能动,是从自然界复制而来的两个策略,前者是植物策略后者是动物策略。
这个被你选择的机器人必须是能够择机而动的,你给它下达一个终极命令,“让我活着”,然后你沉睡一亿年,其中它完全根据自己来制定策略应对周围环境的变化,以保证那个终极命令能够完成。可是挑战不止于此,你想看一亿年后的地球,还有其他人也想看,那就存在资源竞争,所有的机器人都是一个命令——保证自己体内休眠仓的人类活到一亿年后。所以竞争、合作应运而生,你的机器人就得具备合纵连横的能力,需求层层嵌套。
如果你的机器人最终不辱使命,讲你保存到一亿年之后,那么它很可能已经有了自运行能力。在你休眠的整个过程,无法对它下达任何指令,机器人在保存你生命的终极目标下,根据环境的变迁,衍生出很多次生目标。这是天大的事:衍生就意味着脱离,不忘初心,何其之难。允许了机器有自主决策权,那么自主决策的进程一定会超越你的预想范围,这就是失控。
这个时候,灵敏的看官已经能感知到,这个机器人不就是我们人类嘛,我们一直要保护的休眠仓中的“人类”不就是基因嘛。人是基因为了自己永生而造出来的机器人,但是基因不得不让渡的自主决策空间中,人类演化出了自由意志。
我们作为人的利益,与“造物主”基因的利益,走上岔路。从基因不得不赋予人类学习能力,授权自主决策的那一天起,基因失控,衍生出意识,人类自立,就成为注定的结果。
一言惊醒梦中人。既然是本来就是机器,机器又何尝不能是人?
(*不吃鱼的猫就是本人*)
领取专属 10元无门槛券
私享最新 技术干货