自驾车对几个月来说是一个有争议的几个月。几种涉及Tesla自动驾驶系统的高调事件,以及2018年3月在自主超级原型和行人之间的致命碰撞,占据了Guardian Angel Tech的准备,以及如何 - 或者 - 公司可以保证这是万无一失的。

日产的最佳努力是目前新叶EV中可用的Propilot系统。该公司表示,它将拥有2022年的“斜视”自主的汽车,目前在加利福尼亚州的测试狂热地工作。顶级装备赶上日产首席技术总监Maarten Sierhuis博士,并在美国宇航局拥有12年经验的男子,在那里他创建了一门计算机语言,用于使命控制和国际空间站之间的所有沟通。

他是制作复杂机器的世界权威,彼此沟通,与人类相互沟通。幸运的是,他还能够将那个巨大的智力转化为我们可以遵循的术语。掌握。所以,我们坐在马登询问目前围绕自动汽车梦想的棘手问题。他开始通过在地理上解释,系统需要“边界”编程,因此它只解锁了区域,临时操作是合法的地区,州或国家的自我驾驶能力。

最高档:所以,如果汽车可以geo-tag,可以静止天气标签吗?如果它在正确的地方会发生什么,但恶劣的天气遮挡了道路,或传感器?

Sierhuis博士:“第一个系统将在地理上界定,它不会在不同的区域工作。我们将拥有不同的系统:为提供人员和Robo-Delivery的Robotaxi,可以提供包装。是的,将探测器放在车上读天气是非常简单的。“

TG:什么是最佳系统?那辆车会告诉司机,自治系统离线吗?

DS:“很好,如果你在你决定不开车的情况下,就不要开车。将有一个舰队管理公司管理车辆的车队,这将有一系列规则将在其遗嘱和不会提供服务时定义。这可能是日产,或联盟[雷诺 - 日产 - 三菱]或其他公司 - 我们不知道。

21

这不是我仍然忙的东西。我们必须开发首先有用的技术。其他人将决定业务角度。对我们来说,它主要是“我们可以在哪里测试”,而对于我们我们想要首先测试,而且没有人们在车内的人。我们总是需要安全。我们在车辆中有测试司机和工程师,最终我们可能想在船上有一些客户的地区尝试。“

TG如何将道德编程到自动驾驶汽车中,即,它如何使潜在的生死决策如何?

DS:“道德问题是一个非常困难的问题 - 人类难以理解道德。有时它在文化上定义,有时是法律,它由信任定义:我们相信系统要做什么?我们没有“计划道德”。

“车辆总会遵守法律。这就是人类做出道德决策的地方 - 这是GO / NO-GO决定。系统本身不会对“我面前的狗或老太太作出判断 - 这不是这些概念。它总会试图避免任何对象。美国的伦理并没有真正发挥作用。

“如果发生意外,则会分析。这是今天发生的,在法庭上发生。但在未来,我们将拥有车辆周围发生的一切的数据,因此对谁错了的判断将更容易。“

TG:沃尔沃已表示,该公司将承认涉及事故的自治车的责任。日产站在哪里?

DS:“对我来说这是一个商业决定 - 我不知道未来将持有什么。现在很容易说出来。我们不知道未来将持有什么,我们还没有这些车辆驾驶。而且你知道,商业模式完全是未定义的。

“如果有一家经营着一支自动车辆的公司作为服务,无论是丢弃套餐还是捡起人们,显然是公司必须有责任。每家公司今天涉及责任问题。

“在我看来,法院在那里处理这些问题,这是我们作为一个社会允许和信任的问题。从我们的角度来看,我们需要尽最大努力始终是安全的而且没有发生意外。“