本文由腾讯数码独家发布
人工智能相信大家都不陌生,随着人工智能的不断发展,很多人也不免担心它会发展到人类无法控制的态势,近期,特斯拉CEO马斯克就公开表示了对人工智能的未来的担忧。马斯克并不是科技悲观主义者,他对科技向来是持一种开放的态度,从电动汽车到火星殖民地,他一直坚信以科技的发展,这些不久后都可以实现。
但一提到人工智能,他对其的态度就完全不一样了,2014年在麻省理工做演讲时他就声称,人工智能是现今存在的最大威胁,并将研究人工智能视为召唤恶魔。在上周五接受采访时,他又再次表示了他的担忧,不过没有到末日论调那么严重,马斯克表示,人工智能可能比人类聪明得多,人工智能和人类的智力水平相当于人和猫的智力水平,可能差距还会更大些,我们真的需要非常小心地开发人工智能。
但是也有很多人,甚至研究机器学习的科学家都表示,人工智能想那么轻而易举地超越人类的智力水平,暂时是不太可能的。人工智能现在还不成熟,我们仍在解决机器学习的基础问题,比如,自动驾驶汽车对一些特殊情况的处理还很不成熟,因为人类的很多本能和认知机器是很难学会的,比如预测摩托车驾驶员的动作,辨认路上飘着的塑料袋等等,人工智能想要超越人类暂时还不太可能。
但是,马斯克并不是唯一公开对人工智能表示担忧的人,牛津大学和加州大学伯克利分校的人工智能科学家、史蒂芬•霍金,以及许多研究人员都支持马斯克的观点,他们担心太过急于研究人工智能,可能会出现一些不可控的情况。我们静下心来想想这个问题,那我们应该怎么办呢?很多人就会去做各种各样的研究来弄明白这点,不管怎样,有一点是肯定的,我们能做的就是去做研究弄明白人工智能的存在是否足以构成威胁。
同时,马斯克希望美国政府在考虑如何解决这个问题之前,花点时间了解清楚这个问题。他在接受采访时进一步表达了这个想法:“我认为政府在解决这个问题前,花一两年的时间来了解清楚人工智能的发展程度和趋势,分析其可能带来的风险,然后,基于调查结果,协商制定出规范人工智能研究的准则。”
马斯克表示,一些研究组织,尤其是Alphabet旗下的谷歌Deep Mind,开发了AlphaGo和AlphaZero,并还在急于开发更复杂强大的人工智能系统。有些人不相信人工智能对人类可能有威胁,而且从事人工智能的研究也没有准则规范。“我们不想犯了错误才会想到吸取教训。”
麻省理工学院物理学教授马克斯•泰格马克去年接受采访时表达同样的担忧:“有人在火灾中丧生,我们才发明了灭火器,发明汽车后出现了交通事故,我们才发明了安全带,安全气囊和交通灯,但这回我们发明了核武器和人工智能,我们可能等不起到犯了错才知道吸取教训了,这次我们要提前预防。”
如果人工智能的潜力巨大,我们真的需要提前预防,牛津大学的尼克•博斯特罗姆在他2014年的著作《超级智能》中提到,一旦开发出不良设计的人工智能系统,想要纠正几乎不可能,它会阻止我们重新编写它的程序,那时,说什么都晚了,打个比方,人工智能的开发就像火箭发射,等到点了发射键之后才想到要修正,一切都晚了。博斯特罗姆在《超级智能》一书中还提到,人工智能发展之迅速是我们永远都想像不到的,机器的学习能力真的是很可怕的。
很多人工智能领域的专家都认为,这就是一场豪赌,与马斯克一同接受采访的Y Combinator的山姆•奥尔特曼表示:“在未来几十年里,我们要么走向自我毁灭,要么走向人类统治的巅峰。”“没错。”马斯克附和道。我们了解到人工智能发展的潜力后,明白马斯克对人工智能的担忧并不是一种科技悲观论调,他对科技的态度很开放,相信人工智能具有非凡潜力,但也担忧其未来发展。
来源:vox
领取专属 10元无门槛券
私享最新 技术干货