首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

《十问:霍金沉思录》霍金先生最后的著作

作者 | 鹏崽

来源 | 鹏崽读书(ID:gh_7b69c675aab3)

AI短期对我们的影响取决于谁控制它,长期影响取决于它究竟是否可以被控制。

宇宙中存在其它智慧生命吗?黑洞中是什么?时间旅行可能吗?我们应该去太空殖民吗?人工智能会不会超过我们?……这些人类尺度,甚至是宇宙尺度的“大问题”,都来自今天要为你分享的《十问:霍金沉思录》这本书,其中一共包含了10个这样的问题。

本书是霍金先生最后的著作,其实在本书问世之前霍金先生就已经逝世了(逝世时间:2018年3月14日),本书是根据他遗留的资料整理而成,是在他的学术同事、家人、以及霍金的遗产管理机构合作下完成的。

在我脑海里,霍金先生的形象一直就是坐在轮椅上的,他还在牛津大学读大三时,就已经被诊断出患了肌萎缩侧索硬化症(ALS),也被称为“渐冻症”,是一种运动神经元疾病,其中大脑和脊髓的神经细胞萎缩,然后结巴或硬化。病人会逐渐失去控制行动、说话、吃饭和呼吸的能力。在当时他被告知最多还有5年可活,但是凭借着他顽强的意志力,以及对宇宙学的极大热情,他一直活到了76岁。

霍金先生一生都在从事科学研究,他最重要的研究成果集中在对于“黑洞”的探究。他在1974年就当选为英国皇家学会会员。

接下来,我们主要了解书中关于这三个问题的研究:时间旅行可能吗;宇宙中存在其它智慧生命吗;人工智能会不会超过我们?

1

时间旅行可能吗?

在各种科幻电影中,我们经常会看到穿越到过去的场景。比如,在电影《大话西游》当中,月光宝盒只需要一句咒语就可以让时光倒流。那么,我们在现实中,真的可能回到过去,真的可以实现时间旅行吗?

我们来看一下,当今最伟大的科学家之一,史蒂芬·霍金对这个问题是怎样看的。

首先,根据爱因斯坦的相对论可以得出,时间和空间是可以改变的。

1905年爱因斯坦在论文中证明,一个人认为事件发生的时间和地点取决于他(她)如何运动,如果,不同观察者不做彼此相对运动,则他们指定给事件的时间将是一致的,但是他们的相对速度越快就越不一致。

当人类达到光速时,时间就会停止,而如果超过光速,那么时间就有可能发生倒流,就有可能回到过去。而爱因斯坦也断言,人类永远不可能达到光速,所以通过这条路要实现时间旅行是不可能了。

其次,在科幻电影中,通过“虫洞”可以实现时间旅行。

“虫洞”:是拥有负质量和负能量密度的物质,使时空出现与地球等实体星体相反方向扭曲。而霍金告诉我们——当时空被弯曲到几乎足以允许旅行到过去时,虚粒子则沿着封闭的轨迹几乎可以成为真正的粒子,虚粒子的密度和它们的能量变得非常大,这就形成了时序保护机制。所以,我们不能通过“虫洞”实现时间旅行。

2009年,作者在剑桥龚维尔和基斯学院,为了一部关于时间旅行的电影,为时间旅行者举办了一个酒会。为了确保只有真正的时间旅行者来,直到聚会结束后,才发出邀请。聚会那天,没有任何人来。

霍金断言:“如果广义相对论是正确的,能量密度是正的,那么时间旅行是不可能的”。

2

宇宙中存在其他智慧生命吗?

我们对外星生命一直有着各种幻想,除了电影里面各式各样的外星人的形象以外,还有各种画面模糊的各种UFO的视频报道。外星人真的存在吗?

如果不存在,那么我们为什么可以这样断言呢?

宇宙是如此浩瀚,甚至可以说是无限大。地球只是太阳系里的一个行星,而整个银河系有2000多亿个太阳的这样的恒星,而整个宇宙又有千千万万个银河系这样的星系。这么浩瀚的宇宙难道就只有地球出现了智慧生物,这看上去就有点站不住脚。更何况,在物理学界,还存在一种“平行宇宙”的假说。也就是我们的宇宙本身都还存在很多个,而不是一个。

如果存在,那么我们为什么没有见到过,它们为什么不来造访地球呢?

霍金一共给出了四种假设:

地球是银河系中或者在可观察到宇宙中唯一出现生命的行星。因为,也许生命自动发生的概率就是如此之低。

存在合理概率形成自我复制系统,比如细胞,但大多数这些生命形式并没有演化出智慧。进化更可能是一个随机过程,智慧只是众多可能的结果之一。

存在生命形成并演化为智慧生命的合理概率,但系统变得不稳定,智慧生命自我毁灭。作者说,这是一个悲观的结论,并希望不是真的。

外太空还有其他形式的智慧生命,但我们却被忽视了。

霍金针对外星生命这个问题,提出了警告:直到我们进一步发展之前,不要回答外星生命。在我们现阶段,遭遇更先进的文明,可能有点像美洲原住民遭遇哥伦布一样——我想他们认为他们的生活因之变得更糟。

3

人工智能会不会超过我们?

我们正处在人工智能爆发的时代,随着阿尔法狗战胜围棋世界冠军李世石,人工智能更是被推到了风口浪尖,人们开始有对人工智能的担忧。那么,人工智能会不会超过我们呢?

霍金认为:“如果电脑继续遵守摩尔定律,它们的速度和记忆容量每18个月加倍,那么在接下来的100年的某个时刻电脑很可能在智力上超过人类”。科幻作家维纳尔·维格称这个时刻为“技术奇点”。

当人工智能在AI设计中变得比人类做得更好,这样它可以在无人帮助的情况下以递归的方式改善自己,我们就可能面临智力爆炸,最终导致机器在智力上超过我们更甚于我们超过蜗牛。

到那时,我们需要确保计算机的目标与我们的目标相互一致。AI短期对我们的影响取决于谁控制它,长期影响取决于它究竟是否可以被控制。

对于人类,超级智能的问世是有史以来要么最好,要么最坏的事。

人工智能真正的风险不是恶意,而是能力。一个超级聪明的AI会非常擅长实现目标,如果这些目标和我们的不一致,我们就遇到了麻烦。

你可以想象,你不是蚂蚁的仇敌,你也许不会去恶意踩踏它们,但是,如果你负责水利发电的绿色能源项目,而该地区有一个蚁丘要被淹掉,对于蚂蚁那就太糟糕了。而人类就好比是那些蚂蚁,要在那一刻到来之前做好准备。

2015年霍金和马斯克,以及许多AI专家,签署了一份关于人工智能的公开信,呼吁认真研究其对社会的影响。马斯克警告说:“超人类人工智能能够提供无法估量的好处,但如果不谨慎地部署,将对人类产生不利影响。

霍金认为:“我们需要意识到危险,识别他们,采用最佳实践和管理,并为其后果预先做好准备”。

最后总结一下:

霍金认为,我们不能实现时间旅行。关于是否存在其它智慧生物,他没有给出确定的回答,只是给出了4种可能性,我个人认为他偏向于认为存在外星智慧生物,因为不然他不会提出警告。对于,人工智能会不会超过人类?这个问题,他的答案是肯定的,并且告诉我们要为其后果预先做好准备。

当然在本书中还有关于:上帝存在吗?一切如何开始?黑洞中有什么?我们能在地球上存货吗?……等问题的精彩论述,如果这些激发了你的好奇心,欢迎去书中寻找答案。

今天的分享就到这里,希望能对你有所启发。

参考书目《十问:霍金沉思录》,作者:史蒂芬·霍金,译者:吴忠超,湖南科学技术出版社。如果想要了解本书更多内容,欢迎阅读原著。

长按下图关注鹏崽读书!

本文来源:公众号@鹏崽读书,作者:鹏崽,为您精选、解读“学校里不教,但在生活中很重要”的好书!鹏崽读书:阅读,改变生活!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190328B0HO4Q00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券