盖世汽车讯 从拆除福岛核电站到检查北海的水下能源基础设施,机器人车辆已在危险环境中工作了数十年。目前,从船舶到杂货配送,自动驾驶车辆已从研究中心平稳地过度至现实社会中,且几乎无纰漏。

然而,无人驾驶汽车的发展并仍停留在测试阶段。2018年Uber自动驾驶测试汽车就导致了一位行人丧生。尽管这类事件在非自动驾驶中经常发生,但公众对于无人驾驶汽车的安全标准要求较高,即使仅发生一次事故,也会认为无人驾驶汽车不够安全,不应该投放于公共道路。

因此,设计一辆始终能做出最安全决策的完美无人驾驶汽车是一项非常艰巨的技术任务。与在严格控制的环境中推出的其他自动驾驶车辆不同,无人驾驶汽车需在超长且不可预测的道路网络中运行,从而快速处理大量复杂变量,以确保安全。

受交通法规的启发,研究人员正在制定一套规则,以帮助无人驾驶汽车在各种可能的情况下做出最安全的决策。为了使可信赖的无人驾驶汽车安全上路,研究人员对以上规则进行了验证,而这也是必须克服的最终障碍。

阿西莫夫第一定律

科幻小说家Isaac Asimov于1942年提出了“机器人三定律”。第一个也是最重要的定律是:“机器人不得伤害人类,或看到人类受到伤害而袖手旁观。”若无人驾驶汽车伤害人类,则显然违反了第一定律。

英国国家机器人中心(National Robotarium)正开展一项研究以确保无人驾驶汽车始终遵守上述定律。这一保证将为各种严重安全问题提供解决方案,而这些问题正是阻碍无人驾驶汽车在全球普及的主要原因。

人工智能软件实际上非常擅长学习新场景。通过使用从人脑布局获得灵感的“神经网络”,此类软件可以识别数据中的模式,如车辆和行人的运动轨迹,随后在新场景中提取这些模式。

但我们仍需证明,无人驾驶汽车所学的所有安全规定可以应用于新场景中。为此,我们可以采用形式验证,即计算机科学家用来证明规则在所有情况下均有效的方法。

例如在数学中,无需测试x和y的每个可能值,可以证明x + y等于y + x。形式验证下,不必详尽测试在公共道路上可能发生的所有情况,即可证明AI软件是如何应对不同场景的。

近期在该领域取得的成就之一是AI系统的验证,即使用神经网络避免自动驾驶飞机间的碰撞。研究人员已成功使用形式验证方法证明该系统将始终响应正确,且不会考虑所涉飞机的水平和垂直操作。

交通法规

为确保所有道路使用者的安全,人类驾驶员会学习并遵循交通法规,并在实际情况中正确使用。我们也可以使无人驾驶汽车学习这些法规,因此我们需要拆解法规中的具体要求,帮助车辆的神经网络理解并遵循每一条法规,随后验证他们在所有情况下是否能安全遵守这些法规。

但是,在检查交通法规中的“绝不能”一词的后果时,验证无人驾驶汽车是否安全遵守这些规则变得非常复杂。为使无人驾驶汽车在所有场景中都能像人类一样反应灵敏,必须对这些法规进行编程,并考虑到细微差别、加权风险以及偶发事件。在上述情况下,不同法规会发生直接冲突,要求车辆忽略一条或多条法规。

该任务不仅仅需要程序员,还需要律师、安全专家、系统工程师和政策制定者共同完成。在新成立的AISEC项目中,研究小组正设计一种工具以促进跨学科合作,从而推动无人驾驶汽车的道德和法律标准的建立。

完善无人驾驶汽车是一个动态过程,取决于法律、文化和技术专家在不同时期对完美的定义。AISEC工具正是基于此想法构建,可提供“任务控制面板”(mission control panel),监测、补充并改变无人驾驶汽车最成功的法规,随后提供给汽车行业。

研究人员希望在2024年前交付AISEC工具的第一个实验原型,但仍需创建自适应验证方法来解决当前安全问题,这可能需要数年时间才能构建并嵌入到自动驾驶汽车中。

自动驾驶汽车事故新闻总会成为头条。在实验室里,如果无人驾驶汽车可以识别行人,并能够在99%的情况下及时停车,这类成就非常值得庆祝,但在真实生活中,它可能是一台杀人机器。而通过为无人驾驶汽车制定可靠且可验证的安全规则,可消除那1%的事故率。