随着人类科学技术水平的不断发展,虽然很多东西相比过去都得到了很大的提升也为人类的工作生活带来诸多方便。然而连世界末日都不怕的霍金,却一直对这三种人类发展的技术耿耿于怀。
首先当然是霍金一直都在强烈反对着人类发展的AI人工智能,他始终相信在未来终结人类的一定会是失控的机器人。
其次就是人类一直有着蠢蠢欲动好奇心去研究的人类基因工程病毒,也正如很多影视作品中看到的那样,随便一小瓶的传染性极强的病毒,就能让绝大部分的人类感染丧生。
另外,霍金一直在公开的场所表示,应该尽早制止人类主动利用各种信息和仪器去寻找外太空的其他生命体,因为没人知道,是不是所有的外星人都是友好的。
最后就是人类一直企图控制,想善加利用的核能发展技术。最后在人类自己研发出来的核武器中,能瞬间将大半个地球的人丧生。
认为人工智能的潜力无限,完全有可能超越人类的智慧水平,摆脱人类的控制。
而著名的天才创业家马斯克就曾声援称AI是人类生存最大的威胁!这也在另一方面支持了霍金的观点,一旦掌握了开火权的人工智能将目标转化成人类,那后果将不堪设想。
二核能技术的发展也有点类似人工智能,一旦在实施的过程中失手或者因为人类的冲突而引发的核战争,那么强大的核能力能瞬间将地球上的人类毁于一旦。也难怪天才物理学霍金也对这些所谓人类最尖端的科技忌惮再三。
领取专属 10元无门槛券
私享最新 技术干货