前Uber自动驾驶团队的老大Raffi Krikorian讲了一个倒霉事,那天他开着特斯拉Model X,FSD模式下带着孩子在湾区分娩区溜达,结果撞到墙上把车彻底报废。他现在是Mozilla的首席技术官,之前在Uber管自动驾驶,负责教司机在系统失灵时赶紧接管,他带队两年里从来没发生过伤人的情况。 事情发生在佛罗里达州坦佩那次事故后没多久。他送儿子去参加童子军活动,这条路他平时走得太熟了。特斯拉一路跑挺稳当,拐到弯道时方向盘突然开始乱晃,车子开始刹车。他赶紧抓方向盘已经来不及了。车子撞上混凝土墙当场报废。他自己脑震荡脖子疼头疼好几天,好在后座的孩子没事。 这事儿让他心里很不是滋味。原本他只敢在高速上开FSD,因为路宽车少容易控制。后来慢慢习惯了就敢开市区了。他按照要求把手放在方向盘上一直盯着前方。结果这系统偏偏在关键时候掉链子。 责任全算在他头上了。因为按现在的法律规定,FSD属于Level 2级别的辅助驾驶,司机必须承担全部责任。特斯拉那边把责任推得一干二净。 更让人恼火的是特斯拉的数据处理方式。车上一直在记录他的手放哪儿、反应多快、眼睛往哪看这些东西。出事后特斯拉总是拿这些数据说事让司机背锅。司机想查查自己的记录往往只能看到零碎的东西。 有个很有名的案子就是在亚利桑那州发生的,原告方不得不找黑客从芯片里把证据挖出来才行。 克里科里安还分析了“监督式”自动驾驶的硬伤:一个设计得让监督变得没必要的机器让人放松警惕;一台完美的机器不需要管;但一台99%完美的机器却会让人觉得它就是100%可靠。这时候司机往往就会分心甚至睡觉。心理学家叫这“警觉性衰减”,长期盯着一个差不多完美的系统会让人觉得无聊从而走神。 研究发现使用自适应巡航控制一个月后看手机的可能性增加了六倍多。特斯拉虽然警告用户别自满,但99%时候的顺滑表现反而让人更自负。 他举了两起事故例子:2018年山景城那个苹果工程师沃尔特·黄开车冲到隔离带前还有6秒时间不碰方向盘;同年亚利桑那州坦佩Uber那起事故里行人5.6秒前就被传感器发现了但安全员最后1秒才反应过来。 这次他自己确实动了手去打方向盘试图救车,但问题是他需要在最后一秒内克服长期训练出来的信任惯性、从坐车的状态瞬间切换回开车的状态,这基本上是不可能完成的任务。 日志显示他确实打过方向盘但根本没用上半秒的时间逆转局面。 照他的说法就是特斯拉先让你觉得FSD很方便然后用几个月的顺畅体验让你放松警惕让你对这种“实际上并非100%可靠”的功能产生心理依赖;等到出事的时候就搬出服务条款让你自己担责——平时出不出问题特斯拉都能拿好处。 他还拿比亚迪做对比说比亚迪宣布如果自动泊车出了事故不用车主赔也不影响记录。 虽然这事儿现在还没几个案例但说明车企跟驾驶员分摊责任是一种选择并非完全不可能的事情。