2024年加州又发生了一件事,特斯拉宣传fsd的时候,用了让人误解的说法。所以,所有卖给消费者

2026年2月,加州那边发生了一件事,他们觉得特斯拉在宣传Autopilot还有FSD的时候,用了让人误解的说法。所以,加州机动车管理局把基础版驾驶辅助系统的名字里的“Autopilot”给去掉了。现在,所有卖给消费者的驾驶辅助功能都被官方归为L2级。这么做也是为了防止公众被误导。 就在2024年,加州又发生了一起类似的事情。一辆Model 3开启了FSD,以约23英里/小时的速度直接撞穿了正在降下的铁路道口栏杆。当时栏杆的高度差不多跟前视摄像头一样高,系统全程都没有减速也没避让。直到撞击前那一瞬间,驾驶员才紧急刹车,可还是没能避开碰撞。 特斯拉和NBC新闻还梳理了社交媒体上的资料,发现有超过40起FSD在铁路道口表现异常的报告。其中有6位车主接受了访谈,4个人还提供了视频证据。比如说,在2025年宾夕法尼亚州的时候,一辆Model 3开上铁轨后被对向列车擦碰,好在司机和乘客提前下车了;2025年1月特斯拉联合创始人Jesse Lyu的FSD车辆在圣莫尼卡闯入轨道后,为了避让列车不得不闯红灯;还有一次是在2024年加州另一个地方也发生了类似的情况。 这些事故里也有一部分是因为识别出儿童假人却没刹车导致的。有个叫“黎明计划”的测试团队多次实验显示,装了FSD的特斯拉对于开启停车指示牌和闪烁警示灯的校车根本没反应。有一次他们甚至把儿童尺寸的假人放在车道中间进行测试。结果车辆还是继续往前开直到快接近假人了才稍微修正了一下方向。 现在关于FSD的责任问题也是争议不断。有人认为它现在还是L2级驾驶辅助系统,所以司机必须全程盯着并且随时准备接管控制权。出了事主要是因为人没注意看路。但另一方则指出特斯拉以8000到15000美元这么高的价格卖“全自动驾驶”,给消费者的感觉是车能自己开呢。结果宣传口号跟实际表现差得远了去了。 另外还有一个情况是得克萨斯州奥斯汀那边运营着没有安全员的Robotaxi服务。这个服务用的软件和NHTSA正在调查的FSD版本一样。当地交通部门的报告显示这辆车队发生事故的频率大概是人类司机的四倍多呢。随着NHTSA调查数据慢慢公布出来,大家就能看清楚到底这些问题是偶尔发生的还是系统里存在的根本性缺陷了。