美国警方确认:特斯拉FSD再次“间接导致”致人死亡事故!
财联社8月1日讯(编辑 黄君芝)今年4月,一辆特斯拉Model S在西雅图附近撞死一名摩托车手。经美国警方最新确认,这辆特斯拉汽车在事故发生时正处于“完全自动驾驶”(Full Self Driving,简称FSD)模式。而这至少是马斯克大力吹捧的FSD所涉及的第二起致命事故。
据悉,调查人员从这辆车上的事件数据记录器下载信息后,确认了这一事实。警方在一份声明中表示,肇事司机已被逮捕,原因是他承认“自己在FSD模式下驾驶时注意力不集中,并且在向前行驶时分心使用手机,相信机器会为他驾驶”。
特斯拉一再强调,其FSD软件需要驾驶员主动监督,并不能让车辆完全自动驾驶。特斯拉CEO马斯克上周表示,预计到今年年底,FSD系统将能够在无人监督的情况下运行。多年来,他一直“画饼”推出无人驾驶出租车车队,但正式发布的时间却一再推迟。
华盛顿州高速公路巡警队发言人表示,上述案件仍在调查中,目前尚未提起任何指控。
前路艰难
多年来,马斯克一直致力于实现自动驾驶能力。他此前表示,如果特斯拉明年不能实现完全自动驾驶,他将感到震惊。然而,这项技术受到越来越多的监管和法律审查。
据了解,特斯拉拥有两套部分自动驾驶系统:FSD和Autopilot。具体而言,FSD可以在包括城市街道在内的多种路况下承担许多驾驶任务;Autopilot则可以保持车辆在车道内并避开前方障碍物。但目前这两个系统都不能实现完全自动驾驶,驾驶员必须随时准备接管车辆控制权。
美国国家公路交通安全管理局(NHTSA)于2021年8月开始对Autopilot进行调查,此前发现了十多起特斯拉汽车撞上静止车辆的事故。于是,NHTSA审查了数百起涉及Autopilot的事故。2023年12月,特斯拉被迫召回几乎所有在美国道路上行驶的车辆,以增加对该软件的保护措施。
专家表示,特斯拉依赖摄像头和人工智能的技术存在局限性。Guidehouse Insights分析师Sam Abuelsamid表示,特斯拉的摄像头专用系统“有很多地方可能出问题”:例如它测量物体的距离不准确。
卡内基·梅隆大学(Carnegie Mellon University)电气与计算机工程教授Raj Rajkumar说:“收集和整理来自各种现实世界元素的数据,比如在各种可能的天气、闪电、道路和交通状况下的摩托车和自行车,是一项极具挑战性的工作。”