英国兰卡斯特大学官网近日报道称,该校研究人员发文呼吁健全监管体系以确保人工智能的可信赖性,减轻民众对人工智能的不信任感。
该校数据科学副教授布兰·诺尔斯(Bran Knowles)谈到,由于人们日益认识到目前缺乏有效的人工智能监管体系,因此对人工智能的信任度下降。在关于“值得信赖的人工智能”的研究中,科研人员一直聚焦于使用者对人工智能的信任需求,却明显缺少关于普通民众对人工智能信任的严肃讨论。
加强人工智能的透明性、以更易懂的方式解释人工智能如何运行,有助于减轻民众的担忧。事实上,让民众能够真正信任人工智能的唯一方式是建立一套监管生态系统。民众一般不会担心食品、药物的可信赖性,因为他们相信,有相应的监管系统,违反安全协议的行为会遭受惩罚。而对于人工智能,民众需要同样的保证。
研究人员基于结构化理论和制度信任研究,设计了一个人工智能民众信任模型。可进行外部审计的“人工智能证明资料”(AI documentation)在该模型中发挥着至关重要的作用,为内部审计者和外部监管者提供信息,以评估人工智能是否遵守可信赖性原则。但研究人员提醒,不能依赖“人工智能证明资料”直接培养民众对人工智能的信任。监督人工智能可信赖性的责任必须由具有高技术水平的监管者承担,否则“人工智能情况说明书”很可能成为像手机应用软件的“条款和条件”一样的形式化机制,很少有人真正阅读和理解它。诺尔斯表示,人工智能会对真实世界的人产生实质性的影响,需要切实的问责制度,确保无处不在的人工智能帮助世界变得更好。
原标题:健全人工智能监管体系
-中国社会科学报作者:李遇/编译
领取专属 10元无门槛券
私享最新 技术干货