特斯拉fsd的“监督式”自动驾驶

Mozilla 首席技术官 Raffi Krikorian,这位前 Uber 自动驾驶部门负责人,把他在特斯拉 Model X 上遭遇车祸的经历公之于众。这场事故发生在亚利桑那州坦佩,当时他正驾驶着这辆车前往佛罗里达州给儿子参加童子军活动。因为这条路他走过数百次,所以特别放松。特斯拉 FSD 模式一直在平稳运行,直到拐入一个弯道时突然失控,方向盘剧烈抖动。克里科里安迅速抓住方向盘试图挽救,却为时已晚。Model X 撞上了混凝土墙,他遭受了脑震荡和颈部僵硬,好在后座的孩子没受伤。 这起事故让克里科里安对 FSD 产生了深刻的反思。他起初只敢在高速公路上使用 FSD,因为那里车道线清晰。后来他逐渐适应并开始在普通道路上使用,结果发现效果不错就养成了习惯。事发当天他的手一直放在方向盘上,严格按照特斯拉的要求保持警惕。可这次系统出现问题时,他却被一种信任感束缚住了手脚。 美国公路安全保险协会的研究表明,用了自适应巡航控制后驾驶员看手机的可能性增加六倍以上。特斯拉虽然警告用户别自满,但 99% 的流畅表现反而容易让人产生依赖。2018 年山景城的那起事故里,苹果工程师沃尔特 · 黄在有 6 秒预警的情况下却从未碰过方向盘。同年亚利桑那州坦佩的 Uber 事故中,传感器早在 5.6 秒前就检测到行人了,但安全驾驶员直到最后不到 1 秒才抬头。 克里科里安指出 FSD 其实是在“训练”驾驶员去信任它。在现行法律框架下,所有 FSD 事故的责任都落在驾驶员头上。这次撞车后出现在保险报告上的是他的名字。车辆持续记录着驾驶员的手部位置和视线轨迹等数据,特斯拉常常利用这些数据把责任推给用户。在佛罗里达州的一个里程碑式案例里原告方不得不雇黑客恢复数据才能取证。 这种“监督式”自动驾驶本身存在根本缺陷:让人类监督一个被设计得让监督变得毫无意义的系统。一台完美的机器不需要监督;一台不可靠的机器会让人保持警惕;而一台近乎完美的机器却会制造陷阱——让驾驶员信任到足以忽视监督的程度。这种现象被心理学家称为“警觉性衰减”,长期盯着近乎完美的系统会让人厌倦而走神。 比亚迪在 2025 年 7 月宣布为自动泊车功能导致的事故兜底——这表明车企与驾驶员分担责任是一种选择而非不可能。克里科里安分析了 Level 2 辅助驾驶车辆事故中的共性:大家总觉得辅助驾驶功能完美可靠甚至开车睡觉。等到真正出事时却发现根本来不及反应并接管车辆。 他认为特斯拉先用数月流畅的表现削弱驾驶员的警惕性,再用服务条款将责任归咎于驾驶员。FSD 没出问题时特斯拉获得赞誉;出问题时驾驶员全责——这种模式正在毁掉大家对自动驾驶的信任。