首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

牛津、剑桥警告:人工智能会被人类用于犯罪

据英国《每日邮报》2月22日报道,一位知名的未来主义者表示,如果人类不采取措施阻止的话,未来机器人可能会凶残地杀害人类。对此,纽约城市大学教授,理论物理学家,科普作家加来道雄博士认为,人类应在机器人脑中植入芯片控制他们的思想,阻止杀人机器人

纽约城市大学教授,理论物理学家,科普作家加来道雄

加来道雄博士警告人类,“到本世纪末,机器人将足够聪明,甚至变得十分危险。所以我认为我们应该在他们的大脑植入芯片,一旦他们有任何危险的想法就立刻使他们停止运作。”

加来道雄博士说,虽然机器人现在只有“和虫子一样的智力”,但是不久之后,他们的智商会慢慢赶上老鼠、猫、狗和猴子。他认为,一旦机器人达到那种智力水平,慢慢能够避开人类最尖端的安全系统,他们或许就能替代人类。加来道雄博士认为,万一那种情况发生,人类可能会与智能机器人融合。他说:“对一些人来说,这听起来或许很奇怪,但是记住,是未来的人类(而不是我们)将决定他们将如何调整自己来和超级智能机器人相处。”在早前的采访中,加来道雄博士已经详细介绍过他的人与机器人融合理论。他认为,100年后,人类将不得不决定他们是否想与高智商机器人竞争。相比竞争,人类或许会决定对自己的基因进行一些调整,但是人类的长相并不会改变。加来道雄博士说:“我们不会看起来像可怕的机器人。无论是千百年前和千百年后,我们都长这样。”

其实,人类对于人工智能担忧的讨论从来没有停止过,当谈论人工智能带来的危险时,我们通常强调的是意料之外的副作用。我们担心的是,我们可能会意外地开发出具有超级智慧的人工智能系统,而忘记赋予它道德;或者我们在部署刑事判决算法时,这些算法吸收了用来训练它的数据存在的种族偏见意识。

但这还不是人工智能可能带来的全部风险。

人们会主动将人工智能用于不道德、犯罪或恶意目的吗?这会带来更大问题吗?来自包括牛津大学、剑桥大学、人类的未来研究所、埃隆·马斯克投资的非营利性组织OpenAI在内的机构的二十多位专家称,这两个问题的答案是肯定的。

在这份题为《人工智能的恶意用途:预测、预防和缓解》的报告中,专家列出了未来5年人工智能可能给人类带来问题的一些途径,以及人类的应对之道。报告联合作者迈尔斯·布伦戴奇表示,虽然人工智能可以被用来发动恶意攻击,但我们没有必要谈人工智能色变,或者绝望

布伦戴奇表示,“我喜欢积极的态度,也就是说我们还大有可为。报告的本意不是描述悲观的未来——人类可以采取诸多预防措施,我们还有许多东西需要学习。我并不认为我们已经陷入绝境,但我把这份报告看作是行动的倡议书。”

报告的内容很广泛,但重点介绍了人工智能加剧实体和数字安全系统面临威胁和制造全新威胁的几种主要方式。它还提出了应对这些问题的5点建议,其中包括使人工智能工程师提前告知他们的研究被用于恶意目的;启动政界和学术界之间对话,避免政府和立法机关对此一无所知。

人工智能最大的威胁之一是,通过使原本要求人工完成的任务实现自动化,人工智能可以大幅度降低某些攻击的成本。

报告提出的第二个要点是,人工智能可以为现有威胁增加新维度。例如,在钓鱼攻击中,人工智能不仅能用来生成常见的电子邮件和消息,还能生成虚假音频和视频内容。

当然,人工智能还能对一些恶意行为起到“助纣为虐”的作用。例如,在政治和社会生活中左右舆论。

报告还阐述了人工智能带来的全新威胁,其中包括恐怖分子在保洁机器人中隐藏炸弹,把它送到特定场所,目标靠近后由人工智能技术自动引爆炸弹。

为了预防、减轻人工智能可能带来的危害,报告给出了5点建议:

研究人员应当告知他们的研究可能的恶意使用方式。

政策制定者需要向技术专家了解这些威胁。

人工智能行业需要向网络安全专家学习如何更好地保护其系统。

需要制定人工智能道德框架,并严格遵守。

需要有更多人参与对这一问题的讨论,其中不应该仅仅局限于人工智能科学家和政策制定者,还应该包括伦理学家、企业和普通大众。

换句话说:就是更多的对话和更多的行动。

来源 | 环球网、凤凰网科技

关注出海小螺号,您的企业出海小助手

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180224B0QNO900?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券