财联社11月28日讯(编辑 夏军雄)当地时间周一(11月27日),美国网络安全与基础设施安全局局长珍·伊斯特利表示,鉴于人工智能(AI)迅猛发展带来的潜在威胁,需要从一开始就在系统中内置保障措施,而不是事后才添加。
伊斯特利周一接受了媒体采访,她指出,科技产品问世时往往充满了漏洞,然后根据消费者的反馈来修补这些漏洞,这已经是司空见惯的现象,但绝不能也发生在AI领域。
伊斯特利说:“它太强大了,发展太快了。”
当地时间26日,美国、英国等18个国家的网络安全机构公布一份国际协议,一致认定企业需要在设计和使用AI系统时确保消费者等广大公众的安全。
这份协议并不具备约束力,大多是提出总体建议,包括监控滥用AI系统现象,防止数据遭干预,审核软件供应商资质。
该协议名为《安全AI系统开发指南》,由英国国家网络安全中心同美国网络安全和基础设施安全局与行业专家以及来自其他21个国际机构和部委合作制定。
除了美国和英国之外,签署该协议的国家还包括加拿大、法国、德国、以色列、意大利、日本等。
伊斯特利26日发表讲话称,新的AI监管指南重点关注安全设计、开发、部署和维护。
加拿大网络安全中心负责人Sami Khoury表示:“我们必须关注AI(产品)功能整个生命周期的安全性。”
上月底,美国总统拜登签署一项具有里程碑意义的行政命令,推出白宫有关生成式AI的首套监管规定,要求对AI产品进行测试,并将测试结果报告给联邦政府。
本月早些时候,在英国举行的首届AI安全峰会上,在业内处于领先地位的AI开发商同意与政府合作,在新的前沿模型发布之前对其进行测试,以帮助管理AI快速发展带来的风险。
伊斯特利表示:“我认为,我们目前已经尽了最大的努力,促进世界各国和科技公司合作,从技术角度阐述如何尽可能安全可靠地构建这些能力。”
领取专属 10元无门槛券
私享最新 技术干货