腾讯科技讯 周日晚间,Uber公司的路侧无人车在美国亚利桑那州,撞死一名49岁横穿马路的妇女,这是全世界完全自动驾驶汽车第一次发生致人死亡事故,事故引发了舆论和行业震动。
此前,美国《纽约》杂志曾经发表一篇文章,其中2016年,特斯拉公司一辆电动车的自动驾驶功能造成一名司机死亡,这是全世界自动驾驶第一次致人死亡事故,据报道,勒万多斯基当时曾经对一群Uber工程师表示:“我们没有造成第一宗车祸,我很不爽。”(不过他后来否认说过这句话)
在谈到自动驾驶汽车安全时,丰田研究所负责人Gill Pratt在接受采访时曾表达过这么一个观点:
对于人类驾驶造成的事故,我们可能会想,“这可能发生在我身上,我也可能犯这样的错。”如果是一台机器,我担心人们并不会因此产生同理心,因为他们只会希望这台机器是完美、不会出错的。
在Pratt看来,AI系统,特别是基于机器学习的AI系统,并不是十全十美、毫无缺点的。由于通过传感器获取的外部信息维度太大,汽车会接收以前从未训练过的信息,我们期望它能够根据这些信息对周围环境做出合理认知。
那么,如何证明自动驾驶汽车需要比人类司机更懂驾驶,才算是足够好?Pratt 对这个问题的答案也不确定。他说,“在有答案之前,我们必须非常谨慎:不要引入不符合社会预期的技术。”
训练过关,才能更好使用
话题衍生,基于机器学习的AI系统,在设计和测试过程中,容易出现系统性故障。原本预想设计成人工智能的产品,常常会表现出人工智障的特征。
目标位置找错了
不灵活
异常情况
系统错误
真的智障
机器也是个学习的过程,有的学习插,有的学习差,有的学了不会用,如下图:
机器学习不断在进步,相信未来,低级错误会减少,至少表现的不那么智障。
而高级错误,更有待设计中避免,测试中发现,以及具备一定的容错能力。
目标设立、代价评估等因素都会影响训练过程
训练满足目标
机器学习过程,就是不断接近目标,也经常会因为训练方法不匹配,导致离目标越来越远。这个小游戏可让你体会这个过程。
领取专属 10元无门槛券
私享最新 技术干货