首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

史蒂芬·霍金真的认为人工智能将带来危险吗?

每当斯蒂芬·霍金的名字出现在关于人工智能的讨论中,我们通常都会感到畏缩。如果这个世界被分成批评者和信徒,霍金肯定会被归入人工智能批评家的行列,但这将忽略掉他对人工智能研究的真实想法和态度。随着本周早些时候他的去世,我担心人们只会记住他怀疑的立场,并怀念他对未来可能面临的具体危险的思考。

需要澄清的是,霍金并不是人工智能的超级粉丝。他反复强调,超级人工智能的出现可能意味着人类的终结。他的论点相当简单:超级智能将能够非常胜任地追求它的目标,如果这些目标与人类的目标不一致,我们就会被碾压。

“你可能不是一个邪恶的人,但谁踩踏蚂蚁是出于恶意呢?但如果你负责一个水电绿色能源项目,而该地区的蚁丘被洪水淹没,对蚂蚁来说就太糟糕了。”他在2015年Reddit上的问答环节中说。“我们不要把人类放在那些蚂蚁的位置上。”

在公开讲话中,霍金还警告说,人工智能被会用作压迫的工具——让少数人反对许多人,并加深业已存在的不平等。是的,他的确警告过基于AI的武器系统的研制。

霍金的观点并非源于他坚信人工智能系统一定会带来危险。在AI中看到弗兰肯斯坦的身影并不奇怪,自玛丽·雪莱之后,人类被自己的创造物毁灭是人们一直“乐在其中”的梦幻。他有时也会像个科幻作家一样作一些有趣的推理和想象。

在另一些时刻,他乐观地认为,人工智能可能是人类的最佳选择,如果它能正确地为人类造福的话。他的这一主张来自于另一种推理,即有可能开发出一套最佳实践,从而创造出有益的AI。

霍金的人工智能批评还有一个重要的组成部分:对那些预测超级智能在特定时间内到来的人持怀疑态度。他写道:“人工智能研究人员在创造人类级别的AI需要多长时间,目前还没有定论,所以请不要相信任何声称知道这将在你的有生之年发生或不会发生的人。”

图片来源于网络

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180319A0FY5800?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券