华尔街日报:特斯拉自动驾驶仪事故与过度依赖计算机视觉有关

鞭牛士报道,7月31日消息,据华尔街日报报道,特斯拉因其 Autopilot 半自动技术而受到大量批评。

最新报道是《华尔街日报》的一系列视频,其中展示了多起据称与使用自动驾驶系统有关的车祸的镜头。

该杂志的结论是,依赖计算机传感器和摄像头而非激光雷达是造成问题的原因之一。

尽管特斯拉因其备受争议的半自动驾驶模式 Autopilot 而受到美国国家公路交通安全管理局 (NHTSA) 的调查,但该公司并未面临任何重大后果。

特斯拉的新旧车型仍在城市街道和州际公路上行驶,其技术虽然在技术上属于SAE 2 级半自动驾驶模式,但可能会被误用为完全自动驾驶系统。

因此,Autopilot 这个名字引发了争议,也是联邦政府和新闻媒体对特斯拉展开大量调查的原因之一。

《华尔街日报》最近的一项调查试图查明为什么有些特斯拉汽车会发生撞车事故。

《华尔街日报》这段大约 11 分钟的视频需要订阅才能观看,是特斯拉自动驾驶系统系列的第二部。该视频将一些事故的起因归咎于自动驾驶系统对计算机视觉的过度依赖,而计算机视觉基本上是一种教计算机理解基于视频等数字输入的信息的方法。

美国国家公路交通安全管理局收到 1000 起特斯拉事故报告

自 2021 年 6 月NHTSA 发布事故报告通用命令以来,美国汽车制造商必须报告所有涉及 SAE 2 级或更高级别自动驾驶系统的严重现实世界事故。

据报道,自 2016 年以来,特斯拉已向 NHTSA 提交了 1000 多起事故,但《华尔街日报》称,大部分数据都对公众隐瞒,因为特斯拉认为这些数据是专有的。

然而,该新闻媒体表示,特斯拉通过收集各州的报告并将其与特斯拉提交给 NHTSA 的事故数据进行交叉引用,解决了这个问题。

《华尔街日报》称,在为本报告收集的222 起事故中,有 44 起发生在一辆开启 Autopilot 的特斯拉汽车突然转向时,另有 31 起事故发生在 Autopilot 未能减速或因遇到障碍物而停车时。

据称,特斯拉未能停车的事故导致的伤亡最为严重。 《华尔街日报》请专家分析了一起致命事故,事故中 Autopilot 未能识别高速公路上翻倒的卡车,导致汽车撞上卡车。

接受《华尔街日报》采访的一些专家表示,这就是 Autopilot 存在最严重缺陷的证据。与其他一些拥有雷达计算机视觉和激光雷达成像来检测物体的汽车制造商不同,特斯拉主要依靠基于摄像头的计算机视觉,并在部分车型上以雷达作为备用。

2022 年因发布 Autopilot 故障视频而被特斯拉解雇的约翰·伯纳尔 (John Bernal) 告诉《华尔街日报》,他发现部分特斯拉车型上使用的摄像头校准不当。

他说,当摄像头看不到同一个东西时,它们可能会在识别障碍物方面出现问题。调查显示,特斯拉过度依赖摄像头来控制 Autopilot 可能会导致撞车事故。

有一件事是肯定的:这项调查以及特斯拉对此的回应将值得关注。