由于人工智能产生不确定性风险的可能性过高,因此任何研究、开发人工智能技术的人,都应该对其研发负起相关责任。
埃隆·马斯克
文 | 郑伟彬
在一些人工智能研究专家的眼中,当前人类对人工智能技术的研发,就像小孩子在玩弄炸弹一样危险。在这一方面,拥有特斯拉、OpenAI、SpaceX等多家企业的美国企业家埃隆·马斯克,就是这方面的典型。其公司OpenAI最近联合牛津大学、剑桥大学等多家机构发布了一份报告,该报告调查了恶意使用人工智能的潜在安全威胁图景,并提出了多种预测、预防和缓解威胁的方式。
人工智能的不确定性让人恐惧
概括来说,报告认为未来人工智能对人类造成的威胁主要包括三种类型,一是扩展或升级了人类面临的现有威胁,使这些威胁的实现手段更加容易,成本更低;二是制造出新的威胁,这些威胁因人工智能的出现才产生;三是威胁的典型特征发生改变。
毫无疑问,人类当前正处于人工智能黄金时代来临前的黎明,诸如Siri、Alexa等数字私人助理的出现,自动驾驶车辆以及诸多有意义的、超越人类能力的算法都在帮助人类在社会、经济等多个领域内更好地实现目标。
但与其他许多科技行业不同,这一领域的研究不受正式安全法规或标准的约束,导致人们担心人工智能最终可能脱离人类控制的轨道,成为负担而不是利益。常见的恐惧包括人工智能取代人类工作者,剥夺我们的权利,并对我们的生存构成威胁。后者是马斯克成立OpenAI、SpaceX等公司的重要原因。
从这份报告的内容来看,人工智能对人类带来的威胁,可以简化为两种。一种是对现在威胁的扩展与升级。这种威胁事实上并不是最大的威胁。它的攻击属性和目标仍然是清晰的,只是借助于人工智能技术,使它实现的方式和手段更为高级、有效以及精准。这种可预测的威胁,只要通过升级或研发相应的技术和防御方式,基本上可以被解决。
OpenAI最近联合牛津大学、剑桥大学等多家机构发布了一份报告,该报告调查了恶意使用人工智能的潜在安全威胁图景 图为报告目录截图
但人工智能真正令人恐惧的,在于其不确定性。从目前已有的人工智能技术来看,人工智能技术似乎只是对过去其他科学技术的升级。但实际上显然并非如此,它并不像电力对蜡烛之类的替代一样,甚至它可以实现更多的自主决策。并且这种决策的过程,可能是人类无法控制的。目前被广泛应用的深度学习算法即是一例。因此,为了解决深度学习的“黑箱”决策过程,许多研究者也试图借助其他手段来打开这个“黑箱”。但人工智能存在的“黑幕”远不止于此。
而这也是OpenAI报告中提出的应对策略并不那么让人信服的地方。面对许多不确定性的存在,任何过于具体的应对防范措施都将可能显得过于狭隘、无效。但即便如此,我们却也不得不积极地寻求潜在的解决办法,而不是被动地等待变化。
以“价值对齐”防范AI潜在威胁
值得重视和关注的是,过去一再被提及的“技术没有价值观”的中立原则,在人工智能技术上并不可行。由于人工智能产生不确定性风险的可能性过高,因此任何研究、开发人工智能技术的人,都应该对其研发负起相关责任,而不是以诸如“我只是在制造工具,好坏由使用的人决定”来推卸责任。
虽然目前全球各国、企业及研究者对于人工智能该如何控制、如何发展并未达成共识,但“价值对齐”是一条被普遍认可的标准,即人工智能的发展不能与人类的价值观相悖。
无论如何,即使上述的分析在面对充满不确定性风险的人工智能令人感到沮丧,这却是当前人类面对人工智能的现实。因此,在产生更加有效和令人信服的策略来解决人工智能潜在威胁之前,保持人类控制,明确研发人工智能技术的责任,价值观一致,确保人工智能对人类的发展与繁荣有益,通过多次迭代人工智能技术而非一蹴而就的开发,持续讨论、关注各种人工智能发展,是目前防范人工智能潜在不利一面的最基本方法。
而这也就要求,人类需要为此成立相应的管理机构,深入掌握全球人工智能的活动并及时制定相关的政策,确保人类安全和现有秩序的稳定。在这一方面,要求各国政府官员,加深对人工智能的了解,不能仅仅局限于人工智能可能对人类工作岗位的取代等诸如此类的简单议题。
郑伟彬(互联网从业者)
领取专属 10元无门槛券
私享最新 技术干货