试想一下:现在是2023年,路上全是无人驾驶汽车。不幸的是,其中一辆撞死了行人,酿成了自普及以来的第一起事故,因而登上了各家报纸和媒体的头版头条。那么,在这场势必会备受瞩目的交通事故诉讼案中,应该应用什么样的法律法规?
以往,这个问题我们是完全没有想过的。但好在,来自英国布莱顿大学的John Kingston,为我们提供了一些思路和答案。他为我们分析了这个尚处于早期发展阶段的法律领域,同时也提出了一些相对而言较为重要的问题,希望汽车行业、计算领域和法律界能够认真去寻找相应的解决方案。
其实,在上述设想情形中,我们所要争论的核心问题,就是人工智能系统是否需要为其不当行为或带来的严重后果承担特定的刑事责任。Kingston指出,来自以色列非营利学术机构Ono Academic College的Gabriel Hallevy,已经针对这一问题进行了较为详细的分析以及较为深入的探讨。
通常情况下,刑事责任的界定,同时需要心理层面上的意图和生理层面上的行为。用法律行话来说,就是既需要犯罪行为,也需要犯罪意图。根据Kingston的介绍,Hallevy主要列出了三种适用于人工智能系统的场景。
首先,第一种情形就是借助他人实施攻击或犯罪。简单地说,如果实施攻击的一方,是心理上存在缺陷的人或动物,那么就应该判定为无罪。但如果有人故意教唆心理上存在缺陷的人或动物去攻击他人,那么这个教唆者就应该判定为有罪。举个例子,如果狗主人诱导自己的狗去攻击其他人,那么狗主人就应判为有罪,因而要承担相应的法律责任。
同样的道理,放到人工智能系统上来。如果那些设计智能机器或者使用智能机器的人,存在某种攻击他人的意图,那就另当别论了。用Kingston的话说:“按理说,某款人工智能程序本身应该是没有任何思维能力的,所以一旦出了事是应该判定无罪的。但它背后的软件程序员或用户,如果涉及故意攻击之嫌,那就应该判定有罪。”
其次,第二种情形就是我们通常所说的自然可能后果。具体说来,就是指有人不正当利用人工智能系统的普通行为操作,转而用来实施攻击或犯罪行为。 Kingston列举了一个日本人工智能机器人的案例,当时那个来自摩托车厂的机器人杀死了一名员工。他解释道:“当时,那个机器人误以为员工对自己要完成的任务造成了威胁,因而就启动了计算程序,想要找到最为高效的方式来消除这一威胁,所以就利用自己的液压工作臂把那名员工推进了旁边正在运作的机器中,导致员工当场死亡。随后,机器人又转身继续去执行自己的任务。”
所以,在这种情况下,最为关键的问题,就是该机器人的编码人员是否事先预料到了这样一种可能会出现的结果。
最后,第三种情形就是直接责任。与第一种一样,这也需要同时具备犯罪行为和犯罪意图。如果人工智能系统采取的行动直接导致了犯罪行为的出现,或者说是在原本应该采取行动的时候,它却没能及时采取行动,那么在犯罪行为这个问题上,证明起来就比较简单了。
但是,想要明确界定第二个条件犯罪意图,还是存在一定难度的。但Kingston介绍说,这也是有一定规律可循的。他表示:“从严格意义上来说,超速行驶就是一种犯罪行为,是需要承担特定法律责任的。因此,从Hallevy的分析中可以看出,如果我们发现某辆无人驾驶汽车出现了超速上路的情况,那么法律法规是非常有可能对其背后的人工智能程序追究刑事责任的。”而与此同时,这辆无人驾驶汽车的车主,可能就不需要承担法律责任了。
接着,证明程序过后,还有一个辩护的问题。如果某一人工智能系统需要承担特定的刑事责任,那么应该采用哪些法律手段来进行辩护呢?Kingston列出了两种可能性:第一,如果某一程序出现了些许故障,那么是否能够按照人类精神失常的情况来辩护呢?第二,如果某一人工智能系统遭到了电子病毒的感染,那么是否能够按照胁迫或者醉酒的情况来辩护呢?
而且,我们不得不说,利用这些法律手段来为人工智能系统进行辩护,绝对不只是停留在理论层面上而已。Kingston重点介绍了几起发生在英国的诉讼案件,其中一些原本遭到计算机犯罪指控的人到最后赢得了辩护胜利。那些人的计算机遭到了恶意软件的破坏和影响,因此应该承担相应法律责任的,是那些恶意软件,而非计算机的主人。
另外,还有一起案件。主人公是一位年轻的计算机黑客,他被指执行了所谓的拒绝服务攻击。但据他介绍,自己不应该承担所带来后果的法律责任,因为罪魁祸首是一款实施完攻击行为就自行清除了所有数据信息的特洛伊木马程序。当时,那位年轻黑客的律师就成功说服了庭审的陪审团,最后帮他拿到了无罪的辩护结果。
文章的最后,主要就是介绍一下定罪之后的惩罚问题。如果说某一人工智能系统需要承担直接责任,那么谁或者什么需要因它而受到惩罚?再有,具体会通过什么样的形式来接受惩罚?反正就目前而言,这些问题都还没有一个明确的答案。
但大致可以肯定的是,绝对不能用刑事法律来规定惩罚,所以还是需要选择民事法律。这样一来,就又出现了一个比较重要的问题,那就是人工智能系统到底是一项服务还是一款产品。
举个例子,如果它是一款产品的话,那可能就应该选择相应的产品设计法律法规作为评判基础。可如果它是一项服务的话,那可能就应该选择相应的过失侵权法律法规作为评判基础。因而在这种情况下,原告往往需要通过三大要素的明确陈述,来证明自己完全是过失行为。
首先,就是被告存在所谓的照顾义务。一般情况下,这一点证明起来是比较简单直接的。不过,根据Kingston的介绍,在人工智能系统的法律案件中,想要正确评估照顾的标准,可能是比较困难的。其次,就是被告违反了这样一项照顾义务。最后,就是被告对这一照顾义务的违法行为,给原告带来了比较严重的伤害。
如果说完所有这些,还是有一些不清楚又不明确的地方,那么未来人工智能系统在法律体系中的地位,可能会随着自己内部功能的完善升级而发生改变,到时候它们将会更像人类,甚至会超过人类。
但是,有一件事情我们可以肯定:在接下来的几年当中,对于律师或者可能会代替律师的人工智能系统来说,上述所有这一切很可能会带来更多趣味。
领取专属 10元无门槛券
私享最新 技术干货