立即打开
“全自动驾驶”特斯拉差点撞上福特,谁的责任?

“全自动驾驶”特斯拉差点撞上福特,谁的责任?

David Z. Morris 2020-11-23
当真正的无人驾驶汽车上路时,责任就将从司机身上转移到汽车制造商和软件设计师身上。

一辆白色的特斯拉Model 3驶出了停车位,向左转弯。

“哇,我的天呐。”驾驶员喃喃道。他的双手还悬在方向盘上方,是汽车自己动了起来。这款汽车装载了特斯拉的“全自动驾驶”软件。在特斯拉的描述中,凭借这项技术,无人驾驶终将会变成现实。

然而,瞬息之间,麻烦就找上了门。车上有人大叫着:“啊,啊!”这辆车就快撞上停在路边的一辆福特汽车了。

司机布兰登·麦高恩是全自动驾驶技术的“Beta版测试员”。他迅速抓稳方向盘,在紧要关头阻止了一场事故的发生。惊魂未定的他连声道:“天呐天呐天呐。”

这段10月26日于加利福尼亚州奥本拍摄的视频,展现了自10月以来,特斯拉的部分购买者在测试全自动驾驶技术时所遭遇的状况之一。

虽然全自动驾驶技术也有过一些令人眼前一亮的表现,但这样的侥幸案例却把一个问题摆在了人们眼前:当一辆无人驾驶汽车撞向你或你的所有物时,你该去起诉谁?该由谁负责赔偿?

该负责的是那个坐在驾驶座上,却根本没有触碰方向盘的人吗?是创造这款软件的开发人员?是汽车制造商——还是汽车导航仪摄像头的供货商?

相比于这个未解的问题,行业的玩家们更多的只是专注于自动驾驶技术本身,并想方设法在这场比赛中取得优势。无论是传统汽车厂商、大型科技公司,还是初创公司,纷纷开始探索自动驾驶领域。其中不乏中国公司的身影,例如已推出“阿波罗”计划的百度、提出将于2030年实现全自动驾驶愿景的滴滴,还有小鹏汽车,其创始人刚刚与马斯克隔空互怼。

自动驾驶已于中国部分地区实现落地。今年4月,长沙开放无人驾驶出租车试乘。10月,北京开放无人驾驶出租车试乘,苏州实现了全国首个常态化运营的5G无人公交。但总体而言,目前还是停留在“试水”阶段,虽然企业对于相关技术有很大热情,但离大规模商业化落地尚有距离。滴滴官方曾表示:自动驾驶的落地需要经过技术成熟、商业成熟和政策法规成熟三个阶段,尚需一定时间。

国外的玩家里,除了特斯拉新推出的全自动驾驶技术之外,从Alphabet公司中拆分出来的Waymo公司也在亚利桑那州发布了真正的无人驾驶汽车。但Waymo公司最新公开的一份报告显示,在2019和2020年间,该品牌的车辆共发生了18起事故。并且,要不是安全防护司机多次介入化险为夷,这一数字还会更大。

不可否认,自动驾驶技术还在不断的完善之中,总有一天,它会比手动驾驶更加安全。但专家们一致认为,此类系统并不能完全杜绝意外事故。

从某种程度上来说,市场炒作模糊了责任划分的问题。虽然特斯拉打着“全自动驾驶”的名号,但那并不是个能够完全实现自动化的驾驶系统。

他们所谓的“全自动驾驶”技术与凯迪拉克和沃尔沃所用的技术类似,其实是一种高级驾驶辅助系统(ADAS)。此类技术可以让汽车驾驶的某些环节实现自动化,但汽车驾驶员仍然需对驾驶时发生的事情负责。

美国汽车协会交通安全基金会于今年9月发表的一项研究暗示,ADAS系统“高度自动化”的名称和营销手段会增加司机分心或失责驾驶的风险。在这项研究中,90名驾驶员被告知他们将测试驾驶一辆具有驾驶员辅助功能的车辆。

其中,一半的司机被告知该系统名为“AutonoDrive”(自动驾驶),并提供了介绍信息,重点是该系统将如何减轻他们的工作量。另一半则被告知他们将使用一种名为“DriveAssist”(辅助驾驶)的系统,驾驶时必须对车辆进行监控。

系统的实际能力被准确地描述给每一组参与测试的驾驶员。

在此之后的调查中,“自动驾驶”组中有42%的司机高估了系统的能力,而“辅助驾驶”组中只有11%的司机犯了这一错误。“自动驾驶”用户还表示,在使用该系统时,他们“更愿意做可能分散注意力或危险的行为”,而且更相信该系统能够防止碰撞。事实上,根据研究人员的说法,该系统不太可能在这类情况下阻止碰撞的发生。

随后,两组司机都试驾了装有凯迪拉克超级巡航驾驶辅助系统的车辆(不过该系统的真实名字没有透露给司机)。被告知使用“自动驾驶”的司机把手离开方向盘的时间比被告知使用“辅助驾驶”的司机多30%。“自动驾驶”组的受试者对汽车自动控制系统发出的控制车辆的指令反应更慢,超过5秒。

美国汽车协会的汽车工程和工业关系主管格雷格•布兰农说:“这样的结果应该不会太令人惊讶。如果系统使用的名称拔高了系统的能力,无疑是在给司机设立了一个错误的情境:这个系统比它实际可以做到的还要厉害。”

在涉及这种有司机参与的所谓无人驾驶系统的致命事故中,美国监管机构和安全调查人员总是会把责任归咎于没有注意路况的人类驾驶员。

而当真正的无人驾驶汽车上路时,责任就将从司机身上转移到汽车制造商和软件设计师身上。但专家们并不希望通过立法来确立这一新规则。

相反地,自动驾驶出租车或自动驾驶牵引车的责任将由法院依据现有法律,对具体事故进行判断后给出裁决。

南卡罗来纳大学法学教授布莱恩特•沃克•史密斯致力于研究责任与自动驾驶汽车相关问题,他表示:“要‘根据实际情况’判断谁该承担责任。”

实际上,在人类驾驶机动车的历史中,对于司机应该负什么责任,人们的看法也发生过变化。

史密斯举例说,1930年代和1940年代时,一些被出租车撞伤的受害者会向出租车乘客而非司机提起诉讼。经过法院的多次否决,这一现象如今已几乎绝迹。

史密斯认为,应该总结出几条完善的法律条例,用以判断涉及自动驾驶车辆的个人责任。从最高层面上来说,自动驾驶汽车将承担“替代责任”,也就是说,企业应对其员工的行为和产品的质量负责。

史密斯说:“车轮是不是掉落了?指示停车的(系统)编码是不是写错了?激光雷达(许多自动驾驶系统都包含了激光雷达传感器)是不是失灵了?”如果明显是因为硬件或软件的故障导致了撞车事故,汽车制造商可能就要承担相关的责任。

不过,许多涉及人类驾驶员的事故都是因为某些微妙的判断失误所导致的。史密斯希望法院能使用一些公式,去评估科技的反应效率。

他表示,第一个问题就是:“此类系统的表现,是否能与称职的人类驾驶员相提并论?如果不能,那就证明它存在缺陷。”

这套标准可以用来判断系统的整体性能,而非其在特定情况下的行为。

早在2017年,美国国家公路交通安全管理局就制定了一套这样的标准。当时,该机构称赞了特斯拉自动驾驶系统总体上的安全优势,还排除了该系统在2016年的一场致命车祸中所发生的故障。

史密斯表示,其次就是,在评估责任时,法院需衡量,[自动驾驶汽车的]某一特定系统是否能比得上,甚至超过其它类似的系统。在汽车召回和安全监管项目中,这已经成为了一项关键考量因素。

最后一点,史密斯希望法院在评估自动驾驶汽车时,能够先进行一项新的司法鉴定:“[如果两辆车都造成了同样的伤害,自动驾驶汽车的]这套系统是否比另一辆车配置的旧系统更好?”

毕竟,机器人驾驶员比人类驾驶员更安全的核心特征之一,就是它具有持续学习的能力。自动驾驶系统能够从其它数千辆车辆所收集的数据中学习,而非依靠某个人的经验(或是人类迟缓的反应速度)。

这一技术承诺符合“可预见性”的法律原则——民事被告是否应该具备预测到某种特定风险的能力?

“一旦出现苗头,就能预见到即将发生的事。”史密斯认为,自动驾驶系统的开发者不应该“重复犯同样的错误”。

汽车制造商不仅关心自己的声誉,也关心自己需要承担的法律责任。

在安全方面,各个汽车制造商之间的竞争已经持续了很久,并且,他们仍在为实现真正的自动化而努力。不过,包括福特、通用、丰田、优步和Lyft等品牌已经加入了自动驾驶车辆安全联盟,在系统的安全标准方面达成了合作。

SAE(一个由汽车工程师组成的专业组织)的主管弗兰克·蒙查卡说:“联盟所做的许多工作都建立在一个假设的基础之上,即最终,制造商要对系统做出的决定负责。”这种对责任和声誉的担忧,很好地说明了相比于特斯拉这样的公司,福特和戴姆勒等公司更谨慎一些。

美国汽车协会内负责审查自动驾驶汽车规定的格雷格·班农表示,需要“数年”的时间,得到汽车行业、执法部门、法院和保险公司共同认可的、针对真正的自动驾驶汽车的法律条例才能确立。

这样的法律条例将有助于结束漫长的法律斗争,解决更多的索赔案。

不过,等到真正的没有人类驾驶员操纵的无人驾驶汽车使用率上升,自然就会诞生出最合适的法律。(财富中文网)

译者:殷圆圆

编辑:徐晓彤

一辆白色的特斯拉Model 3驶出了停车位,向左转弯。

“哇,我的天呐。”驾驶员喃喃道。他的双手还悬在方向盘上方,是汽车自己动了起来。这款汽车装载了特斯拉的“全自动驾驶”软件。在特斯拉的描述中,凭借这项技术,无人驾驶终将会变成现实。

然而,瞬息之间,麻烦就找上了门。车上有人大叫着:“啊,啊!”这辆车就快撞上停在路边的一辆福特汽车了。

司机布兰登·麦高恩是全自动驾驶技术的“Beta版测试员”。他迅速抓稳方向盘,在紧要关头阻止了一场事故的发生。惊魂未定的他连声道:“天呐天呐天呐。”

这段10月26日于加利福尼亚州奥本拍摄的视频,展现了自10月以来,特斯拉的部分购买者在测试全自动驾驶技术时所遭遇的状况之一。

虽然全自动驾驶技术也有过一些令人眼前一亮的表现,但这样的侥幸案例却把一个问题摆在了人们眼前:当一辆无人驾驶汽车撞向你或你的所有物时,你该去起诉谁?该由谁负责赔偿?

该负责的是那个坐在驾驶座上,却根本没有触碰方向盘的人吗?是创造这款软件的开发人员?是汽车制造商——还是汽车导航仪摄像头的供货商?

相比于这个未解的问题,行业的玩家们更多的只是专注于自动驾驶技术本身,并想方设法在这场比赛中取得优势。无论是传统汽车厂商、大型科技公司,还是初创公司,纷纷开始探索自动驾驶领域。其中不乏中国公司的身影,例如已推出“阿波罗”计划的百度、提出将于2030年实现全自动驾驶愿景的滴滴,还有小鹏汽车,其创始人刚刚与马斯克隔空互怼。

自动驾驶已于中国部分地区实现落地。今年4月,长沙开放无人驾驶出租车试乘。10月,北京开放无人驾驶出租车试乘,苏州实现了全国首个常态化运营的5G无人公交。但总体而言,目前还是停留在“试水”阶段,虽然企业对于相关技术有很大热情,但离大规模商业化落地尚有距离。滴滴官方曾表示:自动驾驶的落地需要经过技术成熟、商业成熟和政策法规成熟三个阶段,尚需一定时间。

国外的玩家里,除了特斯拉新推出的全自动驾驶技术之外,从Alphabet公司中拆分出来的Waymo公司也在亚利桑那州发布了真正的无人驾驶汽车。但Waymo公司最新公开的一份报告显示,在2019和2020年间,该品牌的车辆共发生了18起事故。并且,要不是安全防护司机多次介入化险为夷,这一数字还会更大。

不可否认,自动驾驶技术还在不断的完善之中,总有一天,它会比手动驾驶更加安全。但专家们一致认为,此类系统并不能完全杜绝意外事故。

从某种程度上来说,市场炒作模糊了责任划分的问题。虽然特斯拉打着“全自动驾驶”的名号,但那并不是个能够完全实现自动化的驾驶系统。

他们所谓的“全自动驾驶”技术与凯迪拉克和沃尔沃所用的技术类似,其实是一种高级驾驶辅助系统(ADAS)。此类技术可以让汽车驾驶的某些环节实现自动化,但汽车驾驶员仍然需对驾驶时发生的事情负责。

美国汽车协会交通安全基金会于今年9月发表的一项研究暗示,ADAS系统“高度自动化”的名称和营销手段会增加司机分心或失责驾驶的风险。在这项研究中,90名驾驶员被告知他们将测试驾驶一辆具有驾驶员辅助功能的车辆。

其中,一半的司机被告知该系统名为“AutonoDrive”(自动驾驶),并提供了介绍信息,重点是该系统将如何减轻他们的工作量。另一半则被告知他们将使用一种名为“DriveAssist”(辅助驾驶)的系统,驾驶时必须对车辆进行监控。

系统的实际能力被准确地描述给每一组参与测试的驾驶员。

在此之后的调查中,“自动驾驶”组中有42%的司机高估了系统的能力,而“辅助驾驶”组中只有11%的司机犯了这一错误。“自动驾驶”用户还表示,在使用该系统时,他们“更愿意做可能分散注意力或危险的行为”,而且更相信该系统能够防止碰撞。事实上,根据研究人员的说法,该系统不太可能在这类情况下阻止碰撞的发生。

随后,两组司机都试驾了装有凯迪拉克超级巡航驾驶辅助系统的车辆(不过该系统的真实名字没有透露给司机)。被告知使用“自动驾驶”的司机把手离开方向盘的时间比被告知使用“辅助驾驶”的司机多30%。“自动驾驶”组的受试者对汽车自动控制系统发出的控制车辆的指令反应更慢,超过5秒。

美国汽车协会的汽车工程和工业关系主管格雷格•布兰农说:“这样的结果应该不会太令人惊讶。如果系统使用的名称拔高了系统的能力,无疑是在给司机设立了一个错误的情境:这个系统比它实际可以做到的还要厉害。”

在涉及这种有司机参与的所谓无人驾驶系统的致命事故中,美国监管机构和安全调查人员总是会把责任归咎于没有注意路况的人类驾驶员。

而当真正的无人驾驶汽车上路时,责任就将从司机身上转移到汽车制造商和软件设计师身上。但专家们并不希望通过立法来确立这一新规则。

相反地,自动驾驶出租车或自动驾驶牵引车的责任将由法院依据现有法律,对具体事故进行判断后给出裁决。

南卡罗来纳大学法学教授布莱恩特•沃克•史密斯致力于研究责任与自动驾驶汽车相关问题,他表示:“要‘根据实际情况’判断谁该承担责任。”

实际上,在人类驾驶机动车的历史中,对于司机应该负什么责任,人们的看法也发生过变化。

史密斯举例说,1930年代和1940年代时,一些被出租车撞伤的受害者会向出租车乘客而非司机提起诉讼。经过法院的多次否决,这一现象如今已几乎绝迹。

史密斯认为,应该总结出几条完善的法律条例,用以判断涉及自动驾驶车辆的个人责任。从最高层面上来说,自动驾驶汽车将承担“替代责任”,也就是说,企业应对其员工的行为和产品的质量负责。

史密斯说:“车轮是不是掉落了?指示停车的(系统)编码是不是写错了?激光雷达(许多自动驾驶系统都包含了激光雷达传感器)是不是失灵了?”如果明显是因为硬件或软件的故障导致了撞车事故,汽车制造商可能就要承担相关的责任。

不过,许多涉及人类驾驶员的事故都是因为某些微妙的判断失误所导致的。史密斯希望法院能使用一些公式,去评估科技的反应效率。

他表示,第一个问题就是:“此类系统的表现,是否能与称职的人类驾驶员相提并论?如果不能,那就证明它存在缺陷。”

这套标准可以用来判断系统的整体性能,而非其在特定情况下的行为。

早在2017年,美国国家公路交通安全管理局就制定了一套这样的标准。当时,该机构称赞了特斯拉自动驾驶系统总体上的安全优势,还排除了该系统在2016年的一场致命车祸中所发生的故障。

史密斯表示,其次就是,在评估责任时,法院需衡量,[自动驾驶汽车的]某一特定系统是否能比得上,甚至超过其它类似的系统。在汽车召回和安全监管项目中,这已经成为了一项关键考量因素。

最后一点,史密斯希望法院在评估自动驾驶汽车时,能够先进行一项新的司法鉴定:“[如果两辆车都造成了同样的伤害,自动驾驶汽车的]这套系统是否比另一辆车配置的旧系统更好?”

毕竟,机器人驾驶员比人类驾驶员更安全的核心特征之一,就是它具有持续学习的能力。自动驾驶系统能够从其它数千辆车辆所收集的数据中学习,而非依靠某个人的经验(或是人类迟缓的反应速度)。

这一技术承诺符合“可预见性”的法律原则——民事被告是否应该具备预测到某种特定风险的能力?

“一旦出现苗头,就能预见到即将发生的事。”史密斯认为,自动驾驶系统的开发者不应该“重复犯同样的错误”。

汽车制造商不仅关心自己的声誉,也关心自己需要承担的法律责任。

在安全方面,各个汽车制造商之间的竞争已经持续了很久,并且,他们仍在为实现真正的自动化而努力。不过,包括福特、通用、丰田、优步和Lyft等品牌已经加入了自动驾驶车辆安全联盟,在系统的安全标准方面达成了合作。

SAE(一个由汽车工程师组成的专业组织)的主管弗兰克·蒙查卡说:“联盟所做的许多工作都建立在一个假设的基础之上,即最终,制造商要对系统做出的决定负责。”这种对责任和声誉的担忧,很好地说明了相比于特斯拉这样的公司,福特和戴姆勒等公司更谨慎一些。

美国汽车协会内负责审查自动驾驶汽车规定的格雷格·班农表示,需要“数年”的时间,得到汽车行业、执法部门、法院和保险公司共同认可的、针对真正的自动驾驶汽车的法律条例才能确立。

这样的法律条例将有助于结束漫长的法律斗争,解决更多的索赔案。

不过,等到真正的没有人类驾驶员操纵的无人驾驶汽车使用率上升,自然就会诞生出最合适的法律。(财富中文网)

译者:殷圆圆

编辑:徐晓彤

A white Tesla Model 3 sedan pulls away from a stop sign, beginning a wide left turn.

"Oh my gosh," whispers the driver, whose hands hover above the steering wheel as the car moves on its own. The vehicle is controlled by Tesla's Full Self Driving software, technology that Tesla says will eventually be able to drive cars without human involvement.

But suddenly, there's trouble. "Oh. Oh!" a passenger shouts, as it becomes clear that the car is about to drive itself into a parked Ford.

The driver, an FSD "beta tester" named Brendan McGowan, quickly seizes the wheel, narrowly avoiding a collision. "Jeeeeeeezus," he exclaims.

McGowan's video of the incident, recorded in Auburn, Calif. on October 26, is just one of many new glimpses of FSD in action since the technology was made available for testing by some Tesla customers in October. Although FSD has had some impressive moments, near-misses like this one highlight a largely unanswered question: When a driverless car slams into you or your property, who do you sue, and who pays up?

Is the person behind the steering wheel responsible – even if they weren't touching it? What about the developer who built the software? Or is it the car's manufacturer—or maybe the supplier that made the car's navigational cameras—that are liable?

The question has taken on new relevance in recent weeks. In addition to Tesla's FSD rollout, Alphabet spinoff Waymo has deployed truly driverless vehicles in Arizona. A recent report from Waymo disclosed that Waymo vehicles were involved in 18 accidents in 2019 and 2020, and avoided several others because a human safety driver intervened.

Of course, autonomous driving technology is still being refined, and eventually it's expected to drive more safely than humans. But experts agree that no such system can completely eliminate accidents.

The question of liability has been somewhat muddied by marketing hype. Despite the name of Tesla's “Full Self Driving”, it's not yet an autonomous driving system. As with similar technology from Cadillac and Volvo, FSD is considered an advanced driver-assistance system, or ADAS. These automate some elements of driving, such as lanekeeping, but drivers still have ultimate responsibility for what happens when they’re behind the wheel. In fatal accidents involving supervised autonomy systems, U.S. regulators and safety investigators have repeatedly placed blame on human drivers who weren't watching the road.

When truly driverless cars hit the road, responsibility will shift from drivers to vehicle makers and software designers. But experts don’t expect comprehensive legislation laying out the new order.

Instead, liability for robotaxis or automated tractors will be determined as courts through the courts, based on using existing law to the new facts of specific incidents.

“The answer to who’s liable is going to be, ‘It depends,’” says Bryant Walker Smith, a University of South Carolina law professor who studies liability and autonomous vehicles.

The same process shaped how we think about liability for human drivers. For instance, Smith says that in the 1930s and ‘40s, some accident victims struck by hired taxis tried to sue the passengers rather than the drivers. That approach has largely disappeared because it was rejected by courts.

Smith says that judging liability in individual accidents involving self-driving vehicles should come down to several well-established legal principles. At the highest level, autonomous vehicles will be subject to ‘vicarious liability,’ the idea that companies are responsible for the actions of their employees and the quality of the products they produce.

“Did a wheel fall off? Was a stop sign miscoded [in the system]? Did the LIDAR fail?” says Smith, referring to the laser-based radar used by many autonomous systems. If an obvious hardware or software failure caused a crash, a vehicle’s manufacturer would probably end up being liable.

But many accidents involving human drivers are caused by subtler failures of judgment, and Smith expects courts to use a handful of formulas to evaluate how the technology responded. The first, he says, will be: “Did this system perform as well as a competent human driver? If not, that’s going to suggest there was a defect.”

That standard may be applied to a system’s overall performance rather than its actions in a specific situation. The U.S. National Highway Traffic Safety Administration set the table for that criteria in 2017, when it touted the overall safety benefits of Tesla’s Autopilot system while clearing the system of fault in a fatal 2016 crash.

Second, Smith says, courts assessing liability will look at whether a specific system performs as well or better than a comparable system. That’s already a key measure in automotive recall and safety-monitoring programs.

Finally, Smith hopes courts will adopt one novel legal test when evaluating self-driving cars: “Did the system perform better than the last one that caused this harm?”

The ability to constantly learn, after all, is one of the core features that promise to make robots safer drivers than humans. Rather than relying on one person’s experience (or their slow human reflexes), autonomous systems will learn from data gathered by thousands of other vehicles. That technological promise aligns with the legal principle of ‘foreseeability'—the question of whether a civil defendant should have predicted a particular risk.

“Once something has happened, it has been foreseen,” says Smith. The makers of autonomous systems, he argues, shouldn’t “get to make the same mistake twice.”

Auto manufacturers are as concerned with their reputation as with straightforward legal liability, though. Automakers have long competed on safety, and they're still out to win the battle for autonomy. But they're also collaborating on safety standards for the systems through the Automated Vehicle Safety Consortium, which includes Ford, GM, Toyota, Uber, and Lyft.

“Underpinning a lot of the work that the consortium has done is the assumption that ultimately the manufacturer is responsible for the behavior of the system,” says Frank Menchaca, an executive at SAE, a professional organization of auto engineers. That concern about responsibility and reputation helps explain the caution of a Ford or Daimler compared to a company like Tesla.

According to Greg Bannon, who oversees autonomous-vehicle policy for AAA, it will take “years” of court decisions involving truly autonomous vehicles to create consensus about liability between industry, law enforcement, courts, and insurers. That consensus will allow more claims to be settled without lengthy legal fights.

The greatest legal clarity, though, may come simply as more truly driverless vehicles hit the road, with clear messaging that no human driver is in control – or responsible for the vehicle's actions.

热读文章
热门视频
扫描二维码下载财富APP