随着人工智能技术的高速发展,其安全性也日益受到全世界的高度关注。一些学者认为,对人工智能技术不加约束地开发,会让机器获得超越人类智力水平的智能,并引发一些难以控制的安全隐患。美国《外交事务》杂志2019年7/8月刊发表学者肯尼思·库克耶(Kenneth Cukier)的文章《我们准备好迎接机器人了吗?如何思考人工智能的未来》(Ready for Robots? How to Think About the Future of AI),探讨了人工智能的安全性问题。
原文 :《我们准备好迎接机器人了吗》
编译 |熊一舟
图片 |网络
维纳的警告:深度学习唤起恐惧
维纳是人工智能领域的创始人之一,他是个神童,14岁大学毕业,四年后在哈佛大学获得哲学博士学位。为了描述他关于动物和机器如何依赖反馈机制来进行控制和交流的研究,维纳选择了“控制论”(cybernetics)这个词。1948年,他将自己的著作命名为《控制论》。在该书出人意料地成为畅销书之后,其他研究人员开始用这个词来形容他们让电脑像人脑那样处理信息的尝试。
自从《控制论》出版以来,维纳就开始考虑这项技术的社会、政治和伦理方面的问题,他得出了一些令人灰心的结论。他担心由真空管组成但具有复杂逻辑的弗兰肯斯坦怪物有一天可能会攻击它们的创造者。他在1950年写道:“留给我们的时间不多了,我们必须在正义与邪恶之间作出选择。”“我们必须停止亲吻鞭打我们的鞭子。”
从20世纪50年代到90年代,大多数人工智能都是用手工编码的规则编写计算机程序。相比之下,统计方法使用数据根据概率做出推断。换句话说,人工智能从试图描述猫的所有特征以便计算机能够识别图像中的猫,到向算法输入数万张猫的图像,以便计算机能够自己找出相关的模式。这种“机器学习”技术可以追溯到20世纪50年代,但当时只在有限的情况下有效。由于计算机处理技术的飞速发展和数据的爆炸式增长,如今更为复杂的版本——深度学习——已经取得了长足进步。
深度学习的成功再次唤起了维纳对电脑怪兽横行的恐惧,如今人工智能领域最大的争论围绕着安全展开。微软创始人比尔·盖茨和已故宇宙学家斯蒂芬·霍金对这个问题的担忧是出了名的。在2014年的一次会议上,科技企业家埃隆·马斯克(Elon Musk)将人工智能描述为“召唤恶魔”。其他人,如人工智能研究人员斯图尔特·拉塞尔(Stuart Russell)和马克斯·泰格马克(Max Tegmark),以及工程师扬·塔林(Jaan Tallinn),认为人工智能对人类构成了严重威胁,需要立即关注。
维纳后来放弃了他最悲观的警告。但今天,随着人工智能开始侵入发达社会生活的几乎每个方面,许多思想家又回到了维纳半个多世纪前开始提出的问题上。社会如何权衡谨慎与创新的速度、准确性与可解释性、隐私与性能之间的关系,将决定人类与智能机器之间发展出何种关系。人类面临的风险很高,但如果不妥善处理这些关系,人工智能将难以向前发展。
警惕“迈达斯国王问题”
一般来说,人工智能有两种类型。第一种是通用人工智能,即AGI(Artificial General Intelligence):能够像人类一样思考、计划和反应的系统,同时还拥有“超智能”(superintelligence)。通用人工智能系统了解现有的大部分信息,能够以闪电般的速度处理这些信息,而且永远不会忘记其中的任何一个。想象一下谷歌有自己的想法(也许还有意愿)。第二种形式的人工智能是狭义的人工智能:能够很好地完成独立任务的系统,比如自动驾驶汽车、语音识别技术,以及使用先进成像技术进行医学诊断的软件。对通用人工智能的恐惧是,它可能会在人类控制之外自行进化。对狭义人工智能的担忧在于,它的人类设计师可能无法完美地表明自己的意图,从而带来灾难性的后果。
问题在于如何确定这样一个系统的目标,或者工程师们所说的“价值对齐”。人们担心的不一定是人工智能会变得有意识,想要毁灭人类,而是这个系统可能会误解人类给它的指令。人工智能研究人员斯图尔特·拉塞尔将这一问题称为“迈达斯国王问题”,这一说法源自古希腊神话,说的是国王实现了他的愿望,把他接触的所有东西都变成金子,结果却发现自己既不能吃也不能喝金子。通用人工智能被比作“迈达斯国王问题”,它能够执行几乎所有要求它执行的任务。如果一个人要求它生产回形针,但没有具体说明数量,这个系统——不明白几乎任何东西都比回形针对人类的作用大——将把整个地球变成一个回形针工厂,然后殖民其他星球开采更多的矿石来生产回形针。这是一个可笑的例子,但却是一个广为流传的严肃例子。
创意性预防操作漏洞
持不同观点的另一方则对这种担忧不屑一顾。他们认为人工智能的危险极小,至少目前如此。正如斯坦福大学人工智能研究人员安德鲁·吴(Andrew Ng)所言,担心人工智能就像担心“火星上的人口过剩”一样。他认为,研究人员应该努力让人工智能发挥作用,而不是设计阻碍它的方法。
心理学家史蒂文·平克(Steven Pinker)则更进一步,他认为,对人工智能的可怕担忧其实是种“自我驳斥”。他认为,暗淡的前景取决于以下前提:第一,人类的天赋如此之高,以至于他们可以设计出一个无所不知、无所不能的人工智能,但又如此愚蠢,以至于会让它控制宇宙,而不会去测试它是如何工作的;第二,人工智能是如此的聪明,它可以成功地改造元素并重新连接大脑,但它是如此低能,以至于它会因为一些基本的误解而造成严重破坏。
失控的人工智能系统会危害人类的观点虽基于科学,但更是一种想象。投入大量资源防止这种结果将造成误导。正如平克所指出的,反乌托邦预言忽视了规定、法律和制度在规范技术方面的作用。更有说服力的论点考虑到了这些因素,并要求严格执行基本的保障措施。在这方面,网络安全的历史提供了一个有用的参照。当工程师们创建互联网时,他们忽略了在软件协议中构建强大安全性的必要性。今天,这构成了互联网的一个重要脆弱点。人工智能设计师应该从这个错误中吸取教训,在一开始就把安全因素融入到人工智能生产中,而不是试图在以后加以补救。
罗素呼吁“可证明有益的人工智能”,这一概念可以应用于通用人工智能和狭义人工智能。他写道,工程师应该为人工智能系统提供一个明确的主要目标——例如,管理一个城市的电网——并明确地对它们进行编程,使它们不仅确定人们的目标,并具备通过观察人类行为来了解更多信息的能力。这样,该系统的目标将是“最大限度地满足人类对未来生活的偏好”。也就是说,电网人工智能应该找到降低能耗的方法,而不是为了节省电费而消灭人类。
认知科学家丹尼尔·丹尼特(Daniel Dennett)为安全难题提出了一个更有创意的解决方案。为什么不像要求药剂师和土木工程师那样,要求人工智能操作员获得执照呢?“在保险公司和其他承销商的压力下,”他写道,监管机构可能“迫使人工智能系统的创造者竭尽全力,寻找并揭示其产品中的弱点和漏洞,并培训那些有权操作这些系统的人。”丹尼特的版本不会像通常的测试那样评估机器模仿人类行为的能力,而是对人类进行评判:除非一个受过高度人工智能训练的人能够发现系统中的缺陷,否则它无法投入生产。
文章原载于社会科学报第1671期第7版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。
领取专属 10元无门槛券
私享最新 技术干货