Intel旗下的Mobileye最近发表了一篇论文,指出可利用数学公式来判断自动驾驶车辆在碰撞事故中的责任归属,以确保自驾车的安全性;这触动了不只一条自动驾驶车辆领域观察者的神经,衍生的问题包括;「哪有一个产业可以球员兼裁判自己定义产品安全性?」、「安全性与责任归属能混为一谈吗?」
为此EE Times询问了许多学者专家,他们的研究范围从机器人学、嵌入式计算机系统到自动驾驶车辆安全性以及人类-机器人互动;我们请这些专家分析由Mobileye执行长/Intel资深副总裁Amnon Shashua,以及Mobileye技术副总裁Shai Shalev-Shwartz共同撰写的论文,谈他们是否同意其中观点以及他们发现的问题所在,还有提供他们对产业界的建议。
事实证明,学者们几乎一面倒地给予Mobileye研究结果正面看法,他们盛赞该公司坚持到底、迎战在自驾车领域最棘手的问题。
美国卡内基美隆(Carnegie Mellon University)教授Phil Koopman对于Mobileye的论文看法是:「整体看来,我认为能看到一个初步严谨的方法探讨自动驾驶车辆安全性,是很好的事;每一辆自驾车都必须要有一些方法,判断什么可以做、什么不能做。因此,我很佩服论文作者开始往这个方向发展。」
担任该校人类与自动化技术实验室(Humans and Autonomy Lab)总监的杜克大学(Duke)教授Missy Cummings也同意以上看法:「我很欣赏Mobileye开始如此深入地思考那些问题。」
不过Koopman与Cummings两位教授都认为,Mobileye提出的方法只是「第一步」,该提案在现实世界的弹性(resilience)──特别是当自动驾驶车辆必须与人类驾驶的车辆共存而且互动──是更大的飞跃;对于什么可能对自驾车是安全的,Mobileye的定义必须要能顺应现实世界的严苛。
Koopman很看重Mobileye为自驾车安全性提出具体建议的价值,他表示:「没有人能第一次就提出完美的建议,但这没有关系,我们还会尝试很多不同的方法来表达并公式化自驾车安全性,直到我们找到一个实际可行的方案。」
Mobileye的两位作者在论文对「安全性」的讨论,是解释他们的策略具备「可证明安全性,就此意义而言不会导致归咎于自动驾驶车辆的交通事故」;不过对此杜克大学的Cummings指出,「可证明安全性」(provably safe)并不是新概念,并举出网络上就可以找到不少已经发表的相关学术论文(参考连结)。
她表示,可证明安全性最棘手的问题并没有改变:「计算机科学家从数学的角度来考虑何谓可证明安全性,并不意味着与测试工程师会同意那也是安全的。」
Koopman与Cummings都对Mobileye所做的假设提出警告,表示那不能被视为理所当然,需要被质疑;如Koopman指出:「有一些假设如果在现实世界真的发生,我会非常惊讶。」
Cummings提出的例子是软件错误;以下是Mobileye论文作者对于安全性议题的描述:
…我们现在讨论的是导致非安全行为的感测错误;如前面所提,我们的策略是可证明安全,就此意义而言不会导致归咎于自动驾驶车辆的交通事故。这种事故仍有可能因为硬件故障(例如所有的传感器都损坏,或是在高速功率上发生爆胎)、软件故障(某些模型中有严重的错误),或是感测错误而发生。我们的终极目标是让这类事件的可能性减至最小──到每个小时109次的概率。
针对Mobileye 声称软件错误造成之潜在问题机率相当小,Cummings提出了质疑;她引述了一份报告,探讨历史上车辆因安全性疑虑召回的事件,往往是软件问题所导致。。
Koopman的疑虑则是光达(lidar)与雷达的故障:「很难相信雷光达与雷达故障的独立性能够获得解决,还有那些讨论的假设;」他指出:「必须有人动手证明他们是对的,并不只是假设。而且几乎可以肯定有一些假设是错的,论文作者甚至没有意识到他们犯了错。」
就像是Koopman所忧虑的:「这就是安全性──意外是最难的部份,所以你需要为了那些意外做规划,而且要谨慎小心,在它们发生时注意到它们;」不过他也表示:「我还是很高兴看到那些作者们开始做假设,而且他们知道他们是在假设,因为如此一来,我们就有一个测试那些假设的起点。」
Koopman并不很担心Mobileye定义安全性的方式:「论文所声称的是,如果他们对责任归属有严苛的定义,你就可以建立一个用某种永远不会被归咎责任的方式来行事的系统;」他进一步指出:「从系统的观点来看,这能够使其安全。如果每一辆路上的车子都有这样的策略而且会遵循,他们认为一切将会相当安全。」
虽然也坦承对于这种概念实际执行的忧虑,Koopman再一次强调:「了解为何它可能无法运作是很重要的部份;而看到一个真正具体的建议,让我们能从中思考并且学习,是很好的事。」
如果是这样,Koopman认为Mobileye提出的方法有哪些潜在问题?他的疑虑是,自动驾驶车辆「可能会学习如何“骗”系统」;在现实世界,人类驾驶往往会发现道路规则的漏洞,然后在某种程度上利用这些漏洞,那为何一辆具备「人工智能」的自驾车不可能玩出相同的把戏?
(原文发表于Aspencore旗下EDN姐妹媒体EE Times,Judith Cheng编译)