百万公里事故率仅0.23次,为何多数人仍对自动驾驶踩刹车?
自动驾驶统计事故率虽低,但公众的信任危机源于责任归属模糊、极端场景失效的恐惧及技术宣传与实际体验的落差。
一、技术可靠性仍存致命短板
极端场景应对能力不足
自动驾驶在常规路况表现稳定,但面对施工区锥桶(识别不清)、夜间鬼探头(儿童突然冲出)或高速静态障碍物(如故障车辆)时,系统可能失效或延迟响应。部分L2级车型在夜间高速施工场景避障成功率仅47%,碰撞前2秒才预警,人类几乎无法有效接管。
传感器方案争议影响安全冗余
纯视觉派(如特斯拉)依赖摄像头,在强光、雨雾中易误判;融合感知派(激光雷达+毫米波雷达)成本高但全天候适应性更强。马斯克称“激光雷达降低安全性”,但实际测试中纯视觉方案在复杂路况的盲点更显著。
过度依赖辅助驾驶有何隐患
二、责任归属与法律配套缺位
L2与L3级责任倒挂矛盾
L2级事故责任归于驾驶员,车企常以“未保持监控”推责;而L3级在激活状态下责任转嫁车企(如深蓝汽车承诺担责),但多数市售车仍处L2阶段,用户需承担技术失效风险。
事故溯源与赔偿机制不完善
系统故障时部分车企未完整公开数据,用户维权困难。如部分车辆碰撞后车门自动解锁失效、电池起火,责任认定依赖企业自查,公信力存疑。
三、心理认知与信任壁垒
"零事故"预期与统计现实的冲突
人类驾驶事故率虽高(94%人为导致),但公众对机器容错率为零:百万公里0.23次事故若发生在个体身上,仍是100%的家庭悲剧。
控制感丧失的天然抗拒
人类对自身失误容忍度高(如油门当刹车),但对机器失效的恐惧放大。心理学研究表明,即便系统更安全,人们仍倾向于“自己犯错”而非“机器失控”。
四、行业乱象加剧信任危机
过度宣传模糊功能边界
车企将辅助驾驶包装为“自动驾驶”,导致用户高速脱手刷手机、醉驾启用系统等危险行为。实验显示58%车主混淆L2与自动驾驶概念。
技术标准与监管滞后
部分车企为降本省略底层安全模块(如AEB自动紧急制动),新规虽要求失效必须光学提示,但执行力度不足。
五、渐进式信任或是破局关键
责任兜底增强信心
比亚迪承诺泊车事故赔偿、蔚来降低事故率25%的保险数据,让用户看到技术价值。
人机协同更易被接受
拥堵路段辅助驾驶接管脚部疲劳(如环路跟车),但复杂路况人工干预,这种“机器为主、人类监督”的混合模式接受度更高。