据悉,本月早些时候,三家全球顶尖AI公司的CEO阿尔特曼、哈萨比斯、阿莫迪和拜登展开了一场特殊的会谈,旨在讨论未来人工智能的监管问题。后续美国媒体报道称,阿尔特曼等人警告拜登人工智能系统目前已经带来风险,已严重到需要政府干预的程度,希望拜登及时“出手”。这次采访内容总结来说就是:美国行业巨头们各国政府能动用权力限制AI的火速发展,他们认为人工智能这种东西正在产生“无比强大的反作用力”,如果继续疯长将会夺走人类的生存空间,给社会造成动荡风险。
消息提到,此前国际领域上也出现了以公开信的方式发起倡议,呼吁所有人工智能实验室立刻“停工6个月”,不能再训练超过CGT-4等级以上的人工智能体系。且这份公开信获得了包括马斯克在内的超1000名科技界人士的联名签署。总的来说,专家要求人工智能“减缓发展”原因在于AI的自我学习能力太快,甚至会脱离人类的控制,这可能会带来一些不可预测的后果。同时人工智能发展过快也可能会导致一些职业和社会的不平等,挤走大量社会性岗位,目前尚没有解决问题的有效方式。
5月30日,科技界再出“重锤”。国际AI领域非营利组织“人工智能安全中心”发出警告,要求各国必须对AI行业进行谨慎整改。该文件呼吁“人工智能可能带来人类灭绝风险”,要求将AI“与大流行病和核战争等其他影响社会的大规模风险一同成为全球性的优先事项”。目前这份警告信也得到了多方的支持,其中包括研究AI工作的企业高管以及AI、气候、传染病等各领域教授和学者,总计超350人;签署者也包括“ChatGPT之父”、OpenAI创始人阿尔特曼、Meta的首席AI科学家的伊恩·勒坤等行业巨擘。
一些专家提出的社会舆论性分析则认为,当前各方一致担心的是人工智能发展过快会导致“强人工智能”的出现。这种新智能可能会违背或无视人类设定的目标或规则。举个例子就是人类会给人工智能套用一种“规则”,但其智力如果发展到一定程度,具备了解除这种规则的能力,很可能就脱离掌控。此外强人工智能可能会与人类有不同的价值观或道德观,他们一旦被别有用心的人利用或向其他方向发展,这种邪恶目的创造出的产物极度危险,这也是要“控制AI”的另一个目的。
值得一提的还有,当前全球还有不少人“反对限制AI发展”,认为这是自缚手脚的行为。他们认为只要积极地参与和影响AI的设计和管理,以确保AI能够符合人类的利益和价值,这完全对全世界都是一大进步,而不是盲目否定发展。对此有评论称:“AI领域是一把双刃剑,如果各方是基于好的目的出发,要设置护栏等规则都无可厚非。但在这件事上不要发展出‘私心’,比如某些国家借机压制其他国家AI的发展编造各种借口限制全球AI升级,变成一项自私规则,这就有问题了。”
领取专属 10元无门槛券
私享最新 技术干货