霍金的三个预言
人工智能可能导致人类的灭亡;
外星生物的入侵可能会给人类带来灭顶之灾;
人类不殖民太空将会消亡。
人工智能的风险
霍金担心当人工智能跨越了某个奇点就会出现人类无法把控的现象,他认为“到时它(机器)将可能以不断加快的速度重新设计自己,而人类则受制于生物进化速度,无法与其竞争,最终被超越。”
确实,如果AI超越智能,产生智慧,那么它们高度的自发秩序和散沙化的人类相比必然更具竞争力。至今为止,人类相比其他物种所具备的优势,除了智力,当然还有组织度,一旦AI的自组织能力超越了人类,人类自然无法相比。
这种远景似乎还只是存在于想象之中,然而AI对人类的冲击却近在眼前。AI能力越强,人类的舒适性越高,只有人体的机能在每况愈下。
AI起义很远,被AI解构的社会已然成为现实。
外星人入侵
霍金认为,如果未来人类和外星人有了交集,那么一定要谨慎,犹如哥伦布发现新大陆之后,对新大陆居民而言就是灭顶之灾。
世界上所有的阴谋论者都将外星人预定成“恶”的使者,在他们眼中,高智慧的外星人必将给人类带来灾难。这种态度不是谨慎,而是带有敌意。
先入为主的抗拒源于“以己度人”,我既是邪恶的英灵,那么你必然被邪恶所掌握。其实,如果外星人想殖民你,你根本无法抗拒,文明的秩序总是从高处冲向低地,不是吗?
地球或将不再宜居,人类需要殖民太空
人类会由于自身的原因,例如人口爆炸、核威胁、环境污染等因素造成地球不再宜居,那么到时候殖民宇宙就变成延续人类生命的不二选择了。
如果我们回头再看第二个预言的时候,我们便会发现,原来我们害怕高等外星生物殖民我们的同时,期待着殖民低等外星生物的星球。
人类的欲望永无止境,正是自身的欲望导致我们的星球一步步走向末路,到头来,我们却必须做出一个我们自己害怕的选择。
被过度消费和装饰的霍金
世界上只有一个霍金,然而被包装出来的霍金却有无数。你看到的又是哪个呢?
人类总是无法摆脱自己心中的利益掌控,肆意刻造属于自己的霍金。只要对自己有利,那么霍金原来是不是那样并没有关系,我觉得他是那样的就好。也许我们掌握的材料都没有问题,不同的只是解释而已。
作为个人而言,或许现在放下手中的AI,赶紧锻炼身体,练好必要的机能,或许还能赶上未来宇宙殖民的大潮,成为一代“球父”也未可知哦!
领取专属 10元无门槛券
私享最新 技术干货