人工智能:机遇挑战和安全风险并存
在科技发展史上,技术的进步和变革都会带来“双刃剑”效应。从人工智能概念的提出,到人工智能应用的落地,已经影响到社会发展的诸多方面,而人工智能技术本身的安全问题和与此相关的安全威胁,同样不容忽视。在各国出台国家战略、政策法规、制度措施等助力人工智能发展的同时,人工智能的安全、风险、法律与伦理等问题,值得关注。
人工智能(AI)安全的政策问题已经事关国与国之间的国际博弈,在当前国际竞争的背景下,如何进行有中国特色的政策应对,值得深思。
一、人工智能面临的安全挑战
人类智能的模拟延伸以及结果的不确定性,决定了人工智能的安全问题不容忽视。不同领域对其的理解和着眼点不同,综合来看,大致可以将人工智能的安全问题按照诱因分为两类:一类是人工智能技术客观因素导致的安全问题,另一类则是人为主观因素导致的安全问题。
因人工智能技术客观原因导致的安全问题主要源于三点:一是源于AI技术的不成熟,例如,Uber无人车决策失误撞死行人;二是源于AI技术的不确定性,例如,算法“黑箱”缺乏透明度和可解释性;三是源于AI新技术引发的社会变革,例如,AI对人类就业的冲击以及对伦理、法律制度的挑战。技术客观原因产生的安全问题并非当下弱人工智能时代AI安全问题真正的痛点,因为当AI技术没有按照预期轨道和人们要求发展时,人类可以直接进行人为的干预和控制。
从当下暴露出来、难以治理的人工智能安全问题看,大部分还是由人为主观因素导致的。尤其当AI技术被不法分子所利用,AI就可以替代、辅助不法分子实施不法行为,谋取暴利。此时的AI即可以被用来进行网络系统攻击,窃取重要数据和个人信息,控制各类系统;也可以被用来进行AI换脸、AI洗稿等谋取不正当利益。即使不法分子没有利用AI技术,他们也还可以通过注入大量“有毒”数据进行数据投毒,利用现在人工智能系统对数据极大的依赖性,干扰甚至控制AI最后决策。
人工智能本身带来的安全挑战并不可怕,可怕的是人心难测,当人工智能这一技术出现时,在人们面临科技带来的巨大便利时,人类能否守住正义的底线,不被利益冲昏头脑,才是当下人工智能安全所要面临的最大挑战。
二、各国政策对人工智能安全问题的关注点
受各国人工智能产业现状及背后基本国情的影响,不同国家对人工智能安全领域相关政策的关注点也不尽相同。
作为人工智能技术最发达的国家之一,美国相关政策体系的构建比较丰富,不仅从战略、法律到原则倡议、标准制定进行了由上到下的规范,对于自动驾驶、算法等具体的应用场景和技术也进行了规范。从目前美国已经颁布的政策法规看,美国政府从战略层面对人工智能的关注点已经从2016年《国家人工智能研究和发展战略计划》(National Artificial Intelligence Research and Development Strategic Plan)中的“确保安全”向2019年《人工智能倡议》(American AI Initiative)“提升国际竞争力、确保美国领先地位”的国际博弈转变,尤其是《2018年国防部人工智能战略摘要 利用人工智能促进安全与繁荣》(Summary of The 2018 Department of Defense Artificial Intelligence Strategy Harnessing AI to Advance Our Security and Prosperity)这一政策,充分体现了美国对人工智能技术在国家安全事业的应用给予重点关注。对于人工智能的安全问题则更多聚焦在具体应用场景和技术的规定当中,如《2019算法问责案》(Algorithmic Accountability Act of 2019)和《自动驾驶法案》(Self Drive Act)等。
对欧盟而言,如何继续保持在新兴产业领域的话语权成为其重点关注的内容。在欧盟委员会发布的《欧盟人工智能》(Artificial Intelligence for Europe)战略规划中,明确指出要确保欧盟具有与人工智能发展和应用相适应的伦理和法律框架,最大化欧盟整体在人工智能领域的国际竞争力。另外,从欧盟目前颁布的政策法规来看,尽管欧盟在人工智能产业领域存在缺失,但是,仍然通过制度创新以及对安全问题的细致规定抢占政策主导地位。
日本、韩国、新加坡等亚洲国家,更多是将人工智能安全的战略重点放在促进产业健康发展以及公共安全、国家安全的应用上,并对人工智能的一些安全问题、伦理问题做出原则性规定。日本于2017年发布的《人工智能技术战略》(Artificial Intelligence Technology Strategy)、韩国于2018年发布的《人工智能研发战略》(Artificial Intelligence R&D Strategy)以及新加坡于2019年发布的《人工智能治理框架》(Artificial Intelligence Governance Framework)等,均有所体现。
大部分国家对人工智能安全领域的关注点基本都在于如何促进产业发展以及如何利用人工智能保障国家、公共安全,提高竞争力方面;关于人工智能安全问题的规定也大多停留在原则、倡议层面;对具体的应用场景和技术的安全规定也仅限在自动驾驶、算法以及智能机器人等领域。总而言之,各国在人工智能安全问题的政策制定上还处于探索阶段,所制定的政策法规也带有浓厚的国家色彩和战略考量。如何在安全可控的基础上利用人工智能在国际舞台上占据有利地位,已成为每个国家必做的功课。
三、关于如何进行政策应对的思考
从各国对人工智能安全问题的政策关注点看,关于人工智能安全问题的政策治理,已经上升到国际竞争层面:一方面,人工智能相关技术的应用是现在及未来国际竞争必争的战略高地;另一方面,人工智能在国防等国家安全层面的作用也是将来国际博弈的重要筹码。因此,有关人工智能安全问题的政策应对并非单纯的政策制定那么简单,需要从全局出发,慎重考量。
首先,要加强在国际领域的话语权,保护中国人工智能企业在全球的产业发展。在加强政策国际话语权方面,欧盟一直都做得非常出色。最典型的例子就是2018年正式生效的《通用数据保护条例》(GDPR),可谓在全球掀起数据保护“狂潮”,不仅众多国家纷纷出台了自己的数据保护法案,对数据保护的严格要求也对全球企业产生了影响,尤其对美国的大型互联网跨国公司产生重击。欧盟在人工智能方面也采取了同样的策略。对中国而言,继续保持人工智能在全球的优势地位,政策是必不可少的一环,如何在政策领域主动先发制人而非被动的受他国挟制,需要依靠国家力量,引领提升产业国际影响力。
其次,对人工智能的安全问题要理性对待,分而治之:对因技术客观因素导致的安全问题要适度宽容;对因人为主观因素导致的安全问题要坚决抵制。之所以要对因技术客观因素导致的安全问题适度宽容,是因为但凡一个新事物的产生都不是绝对安全可靠的,人工智能也不例外。新技术的产生既会带来机遇,也会带来风险,尤其是对人工智能这一数字时代被重新激活生命的“新生儿”。对于技术还不够成熟的人工智能技术和应用,可以像对待“未成年人”一样对待并保护它,给它安排“监护人”,监护它的“行为”并承担责任;对于一些重大的“刑事”问题给予适当的宽容。至于那些因人为主观因素导致的诸如利用人工智能系统攻击、数据窃取等安全问题,在人工智能并未出现之时就已存在,只是人工智能的出现加剧了危害后果,根本问题还是人的问题。对于这类问题和行为,政策上亟需坚决抵制,而且抵制的重点需放在人的不正当行为而非人工智能技术上。一方面,技术是在不断变革和进步的,政策的制定永远赶不上技术的发展,此类安全问题的根本原因在于人的不法行为而非人工智能,治病需治根;另一方面,“甲之砒霜,乙之蜜糖”,人工智能技术也可极大的助力安全事业。
最后,发挥政策相较法律更加灵活的特性,审时度势,保障人工智能安全可控发展。在符合中国国情和产业发展规律的基础上,守住人工智能发展的原则底线,在安全与发展的平衡点间左右调节。当人工智能产业还不够成熟时,对人工智能产生的安全问题的政策引导要大于政策限制;当人工智能产能过剩时,转而依靠安全标准的提高促进产业质量的升级。
总而言之,政策的适当与否决定了产业发展的好坏,过松或过严的政策都不利于产业得发展。无论如何,政策的制定都不应当是在办公室里拍脑袋想出的一纸空文,应尽可能多地倾听各方意见虽然会影响政策的制定效率,却一定会使出台的政策更加科学,真正发挥政策的治理作用。
(本文刊登于《中国信息安全》杂志2019年第7期)
领取专属 10元无门槛券
私享最新 技术干货