特斯拉Autopilot撞人致死,车主被控“杀人”,特斯拉出庭作证
智能车参考 2022-05-23 10:39:27 关注

作者:贾浩楠


特斯拉司机被控“杀人”,并出庭受审,这是全球首例。


重点是:这场导致两人死亡的严重事故发生时,车上的Autopilot处于开启状态。

特斯拉自称的完全自动驾驶出事不是一两次,但这一次司法部门认为:错在驾驶员,与Autopilot无关。

史无前例的审判,加上马斯克于此时亲自领导成立特斯拉诉讼部门,让争议更加尖锐:

自动驾驶相关事故,系统提供方到底需不需要负责?法律天平是不是更容易向企业倾斜?

车主因「杀人」受审,特斯拉出庭作证

洛杉矶县法院起诉这名车主的罪名是:驾车杀人 (vehicular manslaughter)。

国内没有类似罪名,在美国也是近几年才出现的。

根据定义,驾车杀人罪是指

“因重大过失、酒后驾车、鲁莽驾驶或超速等非法驾驶汽车行为而造成人员死亡的犯罪。”

理论上说,因为涉及人命,所以这是一种严重的刑事犯罪。

但实际情况是判罚有轻有重,比如只有轻微超速致人死亡的,通常最多只判1年监禁,但如果司机处于醉驾或毒驾状态,刑罚会严重得多。

其实这项罪名的提出,是为了替代之前美国交通事故判决中常用的过失杀人罪,立法机构认为相关刑罚太重,用在交通肇事案件中对被告不公平。

美国的法律是否合理我们不讨论。但从这项罪名描述来看,提起相关诉讼必须得有证据表明司机在驾驶过程中存在重大过失。

而洛杉矶法院说:已经有足够的证据表明这名特斯拉驾驶员犯驾车杀人罪。

本案审理刚刚开始,所以这些证据并未公开,不过可以从事故情况中分析。

2019年12月29日,Kevin George Aziz Riad驾驶特斯拉Model S,经由高速进入洛杉矶加迪纳市,此时已处于超速状态。

紧接着,这辆特斯拉以119公里的时速闯过一个加迪纳市区的红灯,然后在十字路口撞上了一辆本田思域,直接导致思域车内两名乘客死亡。

特斯拉车内的两人也受伤,不过没有生命危险。

而在事故发生时,Autopilot处于开启状态。

按照2019年底Autopilot版本的能力,并不能识别红绿灯并自主应对。

所以司法机关起诉的理由,是司机没有对Autopilot实施有效监管,从而导致事故发生。

而特斯拉也派出工程师出庭作证,说事发时车辆的确开启了Autopilot,并且司机双手也在方向盘上,但事故发生前的6分钟内,车辆没有任何刹车减速动作。

这相当于坐实了“过失”的指控,杀人诛心。

毕竟在多次事故后特斯拉已经改口不说“完全自动驾驶”,而是强调无论Autopilot或FSD都需要驾驶员随时准备接管。

至于为什么车辆从高速下来后不减速还闯红灯,并且司机一次刹车的行为都没有,仍然是个谜团。

有外国网友分析认为,可能是高速阶段司机开启了NOA,但下高速后系统自动转到不能识别红绿灯的Autopilot,而司机并未对自动驾驶状态改变有所察觉。

速度问题并不奇怪,特斯拉NOA通过匝道上高速后不加速、下高速后又不会自动减速的现象,早被国内外车主吐槽无数遍了。

这次的事故,有可能有这样的原因。

不过,特斯拉因为提前打过“预防针”,现在有充分理由将责任转嫁。

而司法机关也认为驾驶员“没看管好”特斯拉Autopilot属于重大过失,是事故的根本原因,至于Autopilot技术成熟与否跟事故没有直接关系。

一旦罪名成立,Kevin George Aziz Riad就会成为史上第一个在自动驾驶事故中承担全责的人类驾驶员,这个案子可能也会对自动驾驶发展产生重大影响。

「司机杀人」有啥影响?

自动驾驶出事,系统提供方要不要承担责任是一个社会层面的难题。

核心原因在于,现阶段L2+、L3级别的自动驾驶,做不到100%的无人和可靠。

L2+、L3可以在特定情况下实现自动驾驶,有的甚至允许驾驶员的视线离开道路,只有当车辆提示需要接管时,驾驶员再进行接管。

可以看出L3处在一个尴尬的地位,既与常规辅驾级有根本区别,又达不到L4的可靠性。

说它绝对可靠,却仍然不能离开人的干预;说它不可靠,但实际L3相关技术已经能解放大部分人力劳动。

从2017年至今,没有一个国家监管机构出台明确的L3审批明细,也是因为类似特斯拉Autopilot和FSD这样的自动驾驶,难以量化人为接管的时机和条件。

所以现阶段所有在路上跑的L2+以上的汽车,其实都处在一个路权模糊的阶段,人类驾驶员和AI司机的权责划分无据可依。

这也造成了过去几年中混乱的事故处理方式。

欧洲偏向保守,不允许特斯拉或其他自动驾驶公司自夸“无人”,判决中也倾向用户的生命财产安全。

北美则更激进,几次严重事故,最终归因到人类司机身上,比如著名的Uber自动驾驶致死案,以及现在的这起案件。

国内也出现过多起类似事故,只不过国内厂商更为低调,处理方式以庭外赔偿为主。不过在低速无人配送车领域,出现了权责判罚完全不同的案例,比如我们之前介绍过的美团无人车事故。

到底应该是厂商负责,还是用户负责,现在没人能给出答案。

前不久奔驰放出豪言说L3出事故厂家负全责,让业界和用户眼前一亮。

不过仔细一看,奔驰给L3限定了严格的使用条件,天气、路段、速度等等,一条不符合,奔驰就可以不承担责任。而符合条件的场景,日常使用中寥寥无几。

所以奔驰的承诺,摆姿态作秀意义远大于实际,于技术于法律,没有起到任何推动作用,哪怕能引起的有意义的讨论都不多。

但这次的案件不同。在遵循判例法的美国,一旦特斯拉此案尘埃落定,车主要为“驾车杀人罪”负全责,那么对于行业影响是重大的。

无论这一步是前进还是后退,以后的类似自动驾驶事故,有了判例可依。

倾向于用户承担责任,自动驾驶提供方毫无疑问会更加放开手脚上马量产自己的新技术,在功能和安全保障上可能也会走得更激进。

因为,对于特斯拉这样的公司来说,打官司损失的钱不足为道,重要的是一旦法律判决它要为技术缺陷买单,损害的是投资人的信心、公司的声誉,进而影响公司运营和技术迭代。

而从这次这起案件的司法判决倾向来看,对特斯拉无疑是大大有利的:

用户义务为厂家提供免费路测数据,出了事还得自己负责。

有人形象的比喻:L4以下的自动驾驶竞争,好比挤满了你追我赶运动员的赛道,但遗憾的是,这个比赛的规则根本没制定好,跑得快不代表跑得赢;

更遗憾的是,对于观望比赛的购车用车的普通人来说,不管谁跑赢,你可能都不敢上车一起跑。

One more thing

加州司法机构起诉特斯拉驾驶员驾车杀人罪的同时,特斯拉这里也有了新动作。

特斯拉在公司内部成立了专门应对法律诉讼的部门,既包括被动应诉,也包括主动起诉。

马斯克透露,这个新部门很“硬核”,直接向他汇报。

的确耐人寻味。

是之前官司缠身不堪其扰的自保之策,还是看到了司法风向变化,认为自己能拿到“免死金牌”?

智能车参考
0
0