加载失败
这份 PDF 来自美国 NHTSA(National Highway Traffic Safety Administration,美国国家公路交通安全管理局)的 ODI(Office of Defects Investigation,缺陷调查办公室),焦点是 Tesla FSD 在多起事故中没有及时识别摄像头视野退化,也没有在足够早的时候提醒驾驶员接管。讨论因此回到 Tesla Vision(特斯拉的纯摄像头感知路线)是否足以应对雾、雨、脏污、遮挡和夜间低照度等场景,以及 FSD Supervised(需要持续人类监督的版本)到底算不算真正的自动驾驶。有人提到 Tesla 在专利和演示中使用 Occupancy Network(把环境划分为可行驶/不可行驶空间的感知模型),但很多评论者认为这并不能替代 LiDAR(激光雷达)或 RADAR(毫米波雷达)带来的冗余。整场争论还夹杂着对 Tesla crash data 透明度、事故归因和 Elon Musk 宣传口径的长期不信任。
评论焦点首先落在系统是否真的能识别摄像头视野退化。有人引用报告指出,FSD 在多起事故里没有及时识别常见道路条件对可见度的影响,也没有在足够早的时候提醒接管。实际车主反馈则更混乱:脏污、太阳眩光有时会弹出 degraded performance 提示,但雾、夜雨等场景又可能完全没警告,甚至只在摄像头前方做一次清洗动作而不说明原因。结果是驾驶员很难判断系统是在正常工作、降级工作,还是已经接近失效。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7]
很多人认为问题不只是告警,而是 Tesla 的纯摄像头路线本身就不够稳妥。评论里反复强调,人类驾驶依赖的不只是双眼,还包括头部移动、双眼视差、触觉、平衡感和对异常的综合判断,因此把摄像头和人眼硬对比并不成立。多位评论者主张应该加入 LiDAR(激光雷达)和 RADAR(毫米波雷达)做冗余,这样在低照度、强反光、雨雾、脏污或异物遮挡时仍能保持深度和路况判断。还有人举出 mattress 掉在路上、Wile E. Coyote 式“假洞口”这类边缘场景,认为只靠视频推断太容易翻车。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11]
另一条主线是对 FSD Supervised 这个产品定义的质疑。很多评论认为,只要还需要人持续监控和随时接管,它就不是 self-driving,而更像一个必须盯着看的辅助功能。问题在于,驾驶员通常无法准确知道系统何时自信、何时已经退化,所以把最后责任推回给人类,会形成明显的 liability 问题。有人进一步指出,即便它在大多数时候比平均司机更好,只要在少数情况下行为不可预测,公众也很难接受这种“平时省心、出事离谱”的自动驾驶。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
还有不少评论并不只是在谈技术,而是在质疑 Tesla 的数据透明度和事故叙述方式。有人指出公司内部的数据和标注限制,可能导致某些 crash 事件被低估或漏报;也有人认为这个 PDF 只是非常初步的调查材料,信息太少,讨论更多是在重复既有立场。与此同时,对 Elon Musk 的不信任、对 Tesla 营销口径的反感,以及拿 Waymo(谷歌系自动驾驶公司)作对比的安全文化讨论,都让线程显得高度极化。整体上,这更像一场长期积怨的爆发,而不是单纯围绕一份新报告的冷静分析。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6] [来源7] [来源8] [来源9] [来源10] [来源11] [来源12] [来源13] [来源14] [来源15] [来源16]
FSD: Full Self-Driving,Tesla 的驾驶辅助/自动驾驶系统名称,评论中也常写作 FSD (Supervised)。
ODI: Office of Defects Investigation,美国 NHTSA 下面负责汽车缺陷调查的部门。
LiDAR: 激光雷达,通过发射激光测距来感知距离和形状,常被用来补足纯视觉方案的短板。
Occupancy Network: 一种把环境划分为可行驶/不可行驶空间的感知模型,Tesla 在专利和演示中被提到使用过。
Tesla Vision: Tesla 的纯摄像头感知路线,强调不依赖 LiDAR 或 RADAR。