首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌:无人驾驶汽车中,人和机器不能同时掌控方向盘

自动驾驶:人类和机器共同掌控方向盘?

在无人驾驶汽车领域,传统的汽车公司大都偏爱渐进变革方式,这些公司认为最好的发展路线是要以一系列循序渐进的阶段推进——而不是谷歌式的直接跨越——即汽车搭载的“驾驶员辅助”软件只是临时接管驾驶,一旦出现特殊情况就得立即将驾驶权交回人类驾驶员。

自动驾驶汽车

其实,渐进式的演变并不是无人驾驶汽车最好发展路线。很多原因表明,人类和机器人不应该轮流掌握方向盘。理论上看,如果将人与一台智能机器组合,至少应该有一位认真负责、技术娴熟的驾驶员。毕竟,在自动化过程中由人类决策的优势,是可能将人和机器的特长发挥到最好。但实际上,只有当各自(人和软件)的责任界定清晰并保持规范一致的情况下,人类的决策才有可能在无人驾驶汽车上发挥作用。不幸的是,汽车行业人员提出的模型里并没有在人和软件之间的责任上作出标准清晰的设定。而他们的建议方案里,在树立维持人类决策的前提时,给出的责任非但不清晰,而且存在责任转嫁

渐进式演变策略的核心假设在于,当有突发情况出现时,应该有警示或震动提醒驾驶员需立刻坐回驾驶位以处理情况。这种向全自动化驾驶发展的渐进式前进路线可能看似合理安全,然而事实上,从部分自动化到全自动化的阶段式演变路线存在风险。机器与人可以在某些情况下有效合作,但驾驶并不属于这种情况。驾驶汽车之所以不适合由人类主导,原因之一在于驾驶是单调乏味的。当一件事变得单调乏味时,人们就十分乐意转交机器执行,所以人们会急切地放弃驾驶责任。

人和机器在驾驶过程中责任分散,结果将是灾难性的

2016年1月20日,京港澳高速河北邯郸段发生一起追尾事故,一辆特斯拉轿车直接撞上一辆正在作业的道路清扫车,特斯拉轿车当场损坏,司机不幸身亡。经交警认定,在这起追尾事故中特斯拉负主要责任。2018年2月27日,历时一年多的案件有了新进展,在大量的证据面前,特斯拉不得不承认事故发生时车辆正处于自动驾驶状态。

自动驾驶事故

而在2009年,法国航空447航班坠入大西洋,葬送了机上228人的性命。事后对飞机上黑匣子分析后发现,坠机的原因在于自动驾驶模式向机组成员转交控制权的空当中出现了错误。在飞行中,飞机的自动驾驶软件被冰覆盖住意外关机了。机组成员还跟往常一样处于困倦的状态中,突然被召回来控制飞机。面对突如其来的紧急情况,驾驶员接二连三犯下致命错误,最终导致飞机一头扎进海里。

谷歌公司则将人类对自动驾驶软件的过度依赖视为“愚蠢的行为”。谷歌公司2015年10月份的月度报告中,对几年前员工在乘坐早期研发出的无人驾驶汽车出行时的一些行为进行了描述。

2012年秋天,谷歌的几名员工被授权可以在上班路上经过高速公路路段时,启动他们研发用的自动驾驶功能。这个方案的预想是由驾驶员开车上高速,并先后把车固定到一条车道后,打开自动驾驶功能。公司最初就提醒每位员工这项技术还属于早期研发阶段,他们需要全程保持对车子和路况的关注。车上还搭载了摄像机以便全程记录乘客和汽车的状态。一次实验过后,员工们对自动驾驶汽车给出了全面的肯定。所有人都在描绘享受到的便利,不用在上下班时间烦闷地困在高速公路上,到家后能精神焕发地与家人共度快乐时光。然而,当工程师团队回看这些车载录像时,问题出现了。大部分人的注意力都从方向盘上移开了,他们做着简单放松活动,享受这片刻的自由。有的人甚至完全离开了驾驶员座椅,爬去后排座椅上找手机充电器。

谷歌公司报告中称已经看到了人类的本性,这也是典型的责任分散,或者工程师将其称为“自动化偏见”:一旦看到技术有效,人们就会很快地信任技术。结果就是,当人们被鼓励交出驾驶权去享受放松时,他们很难再投入到驾驶任务中了。

人和机器不应该共同掌控方向盘

谷歌认为无人驾驶汽车的发展过程中是没有中间地带的——人和机器不应该共同掌控方向盘,这种观点看似有风险,但考虑到消费者的人身安全,这又确实是最谨慎明智的发展路线。

自动化会在两方面削弱驾驶员的能力:首先,诱导驾驶员投入另一件事,比如看书或看视频,而这会直接将驾驶员的注意力从道路上引开;其次,损害了驾驶员的情境意识,或者说妨碍驾驶员对驾驶环境中关键因素进行识别,并做出迅速恰当的反应。两个因素结合起来,会导致分心的驾驶员完全不知道车外面发生了什么,这足以清晰地说明在驾驶中责任分散是十分危险的行为。

谷歌无人驾驶汽车,没有方向盘

让驾驶员和软件系统共同掌控方向盘的另一种风险则在于,不经常使用的技能会退化。就像是447号班机的飞行员,如果汽车驾驶员有机会躲在方向盘后休息,他们一定不会放过这个机会。可是,如果驾驶员有好几个星期不开车,或者几个月甚至几年不开车,那么当在紧急情况下需要他们接手方向盘时,他们不仅不知道车外发生了什么,驾驶技术也可能早就生疏了。

其他事情的诱导以及人机之间责任分散引发的所谓权力切换问题,都是人机互动模式下存在的严重风险,所以谷歌选择跳过这种渐进式自动化的路线。谷歌在其每月活动报告中发布了有关无人驾驶汽车项目的惊人消息:基于前期在部分自动化驾驶上的试验探索,公司的计划以后的战略只集中于全自动化驾驶技术的实现

到目前为止,谷歌无人汽车总共只发生了17次轻微交通事故以及1次备受关注的与公交车低速碰撞事故。在17次轻微事故中,主要责任人都不是无人驾驶汽车,而是另一方的人类驾驶员。可是,2016年2月14日,谷歌汽车与城市公交车发生了首次备受关注的“接触”。与先前的17次小碰撞不同,这次事故的责任方是无人驾驶汽车的软件,它错误地以为只要自己向前开动,公交车会停下避让。经过缜密编程的自动驾驶汽车会严格遵守交通规则,而含糊的人类驾驶员则不会那么一丝不苟地遵守法规,总会有些变通。

在不久的将来,避免碰撞的最好方式就是教导无人驾驶汽车在驾驶时模仿人类的习惯,灵活变通;但是从长远来看,想要解决人类驾驶员的这些问题,最好的方式就是用耐心的软件系统替换他们,这样才能实现驾驶中的全神贯注。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180314A0OFEX00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券