2023年11月1日至2日,首届人工智能安全峰会(AI Safety Summit)在英国举行。包括中美在内的28个国家与欧盟共同签署《布莱切利宣言》(Bletchley Declaration)。
这是全球第一份就遏制人工智能风险达成的国际性声明,承诺为了全人类利益,将力求以“安全、以人为中心、值得信赖、负责任”的方式设计、开发、部署和使用人工智能,呼吁制定跨境政策以防范AI风险,包括虚假信息和“故意或无意的灾难性危害”等。
另一方面,《布莱切利宣言》支持对最先进的未来AI模型的“国际包容性”进行研究,并通过现有国际组织努力保障安全。
人类的尖端科技发展往往领先于立法,倡议或宣言先行能产生多大管理效应?有什么不足?
在当前紧张的政治局势下,取得任何形式的国际共识都是成功。当然,新宣言只承认了风险、承诺探索这些风险,目前唯一确定的具体行动是未来会办更多峰会。
牛津大学人工智能伦理学家卡丽莎·维利兹(Carissa Véliz)对举办更多峰会的承诺兴味索然。根据她的说法,我们在监管AI和达成相关国际协议方面的进展很缓慢,鉴于AI的高风险以及快速发展和应用,如果只是举办一两场会议,这番宣言就显得雷声大雨点小了。
英国数字部长米歇尔·多尼兰(Michelle Donelan)宣布之后将再召开两场AI安全峰会,一场于6个月后由韩国主办,另一场将在一年内由法国主办。
可信人工智能促进中心(Center for the Advancement of Trustworthy AI)的AI专家加里·马库斯(Gary Marcus)表示,《布莱奇利宣言》令人鼓舞,但它不够深入,也没有代表足够广泛的社会不同群体。“我们迫切需要超越以往的立场声明——近几个月来有很多这样的声明——并将声明转化为关于下一步行动的具体建议。”
马库斯认为:
就美国方面而言,拜登在AI峰会前两天发布的行政命令倒显得更切实,更接近真正的政策制定:它命令美国各级政府机构制定测试和使用AI系统的指南。
欧盟方面也致力于推动人工智能立法。
我们并不缺乏监管AI的意愿,但迄今为止几乎没有任何相关举措的细节。
斯坦福大学的计算机科学家克拉克·巴雷特(Clark Barrett)表示,《布莱切利宣言》的大部分内容“可以预见是含糊其辞的,因此存在空谈而无实干的风险”,但它关于“建立对AI风险的科学、基于证据的共同理解”的说法如果落实,那就是个明智的前进方向。
AI领域的技术发展正越发领先于立法工作——如今人类的尖端科技都呈现这种态势。此次峰会令各参与国至少了解了人工智能的最新发展,但谁也保证不了,一年半载后再次会面时,参与者要不要再次学习AI新知识。要知道,眼下距离OpenAI推出ChatGPT仅一年光景,距离ChatGPT升级至更强大的GPT-4模型也仅仅8个月。
值得一提的是,峰会也给各国官员提供了与行业领袖交流互动的机会,包括特斯拉的埃隆·马斯克和OpenAI的萨姆·奥特曼在内的多位业界精英都出席了会议。
领取专属 10元无门槛券
私享最新 技术干货