随着科技的快速发展,人工智能方面发展的也越来越迅速,人工智能的发展让一些有识之士产生了担忧。如果以这样的速度发展人工智能,那么也许用不了几十年,电影《黑客帝国》、《终结者》中的那种场景就会真的会实现,一旦人工智能发展到那样的地步,那么人类也许就会被人工智能所取代,人类就会从这个世界上永久的消亡。
继爱因斯坦之后著名的理论物理学家霍金先生曾经多次表示:“人工智能的发展看似乐观,但是其对人类的威胁绝不亚于核武器。。”
人工智能并不伟大,相反它未来的发展很糟糕,如果未来人类不能合理的掌控和避免危险,那么对人类来说将是灭顶灾难。当人工智能超过了人类超过了人类设置的目标,那么人类就会陷入困境之中。
当然,人工智能的发展已经不可避免,但是霍金先生这些警示我们一定需要注意,在发展人工智能时,一定要不合理的掌控和避免风险,这样才能安枕无忧。
领取专属 10元无门槛券
私享最新 技术干货