首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

未来自动驾驶汽车,能不能完全交给系统?

结论:不能,自动驾驶过程中,部分极端场景选择逻辑不能被标准化和编程化;对于道德上模糊的事件,人类必须重新获得控制权。

1967年 英国哲学家菲利帕·福特提出过《电车难题》的例子,来分析了道德导致的有意和无意的结果,去做和允许去做,支持还是拒绝之间的区别。而这也是未来自动驾驶必定会面临的伦理课题。

电车难题场景:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。但是还有一个问题,那个疯子在那另一条轨道上也绑了一个人。考虑以上状况,你应该拉拉杆吗?

两个角度做分析:

【功利主义】:选择拉杆,道德决策应根据“为最多的人提供最大的利益”的原则做出的。因此,明显的选择应该是拉拉杆,拯救五个人只杀死一个人。

【道义主义】:选择不拉杆,生命权高于其他一切权力;生命权与生命权无法比较;一旦拉了拉杆,你就成为一个不道德行为的同谋——你要为另一条轨道上单独的一个人的死负部分责任。

这里引用德国自动驾驶伦理道德标准:

如果自动驾驶系统比人类司机造成更少的事故,那么自动驾驶系统将成为一种道德责任。

相比对动物或财产造成的伤害,系统必须最优先考虑人类安全。

如果事故不可避免,禁止任何基于年龄、性别、种族、身体特征或其它区别的歧视。

驾驶的责任方必须明确。

汽车必须安装储存驾驶记录的黑盒子。

对于是否将驾驶数据转发给第三方或给第三方使用,人类司机保留独有权。

对于道德上模糊的事件,人类必须重新获得控制权。

这本质上是一种抉择,生命的抉择不能交给系统。若完全交给系统,无视道德规则的指引,在法律中只是进行功利的价值比较,那么整个道德秩序可能崩溃,社会也会瓦解。

若完全交给系统,那系统本身可能沦为纯粹的工具。

顺道做个延伸,哲学上针对功利主义和道义主义之间的抉择事件简直不要太多:

《姚莉事件》

姚莉是某银行工作人员,一日歹徒来抢劫,保险柜中有30万元现金,抽屉里有2万元现金,姚莉和歹徒周旋,给了歹徒2万元,成功地用2万元财产保全了国家30万元财产。但后来姚莉被开除了,理由是为什么不用生命去保护国家的2万元财物。

《洞穴奇案》假象公案/《米丽雷特号事件》

“米丽雷特号”的轮船在暴风雨中沉没,4名船员,包括船长杜德利,大副史迪芬斯,船员布鲁克斯,杂役帕克,都被迫逃到救生艇上。八天没有进食之后,船长杜德利决定将已经气若悬丝的帕克杀死,三人靠帕克的血和肉存活下来。。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20221119A01VKG00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券