咱们聊点行业里的事。自动驾驶这块其实一直在琢磨到底走啥路数,最近大伙儿又吵起来了,焦点主要在要不要只用摄像头看路。特斯拉就特别主张这个纯视觉方案,他们觉得人开车主要靠眼,所以把摄像头造得跟人眼一样好用,再配上强大的AI,理论上车子就能自己开了。这种路子很看重算法优化和数据训练,还想通过少装硬件来省钱。 不过也有人觉得不行。前Waymo的老大约翰·克拉夫奇克就站出来吐槽了。他说现在最牛的车载摄像头顶多也就比人眼差了不少。他还举了个例子,说某些摄像头阵列的清晰度也就相当于20/60或者20/70的视力水平。而且遇到大太阳逆光、大晚上黑漆漆的、或者下大雨、下雪天的时候,这种单摄像头很容易就蒙圈或者搞错方向。他觉得这么干就像个没戴眼镜的大近视,主动把看清路的机会给丢了。 约翰还特别强调,要是光靠摄像头,就相当于给AI系统戴上了手铐。信息少了还容易出错。所以像Waymo、Cruise(通用旗下)、Zoox(亚马逊旗下)和中国几家搞自动驾驶的公司都不太信这套,他们更喜欢多传感器融合。就是把摄像头、雷达这些东西都拿来用,让它们互相补台。 摄像头能看到颜色和路标;激光雷达能画出3D地图;毫米波雷达能穿透雨雾测速测距。专家觉得这么一套组合拳下来,系统能比人眼看得更全面立体。特别是遇到那些平时不太碰到的特殊情况(比如边缘案例),这种冗余设计能大大提高安全性。激光雷达这种主动照射的方式更是被当成了补短板的关键。 现在两边的分歧挺大的。纯视觉这一派押宝在算法能快速突破上;而多传感器融合这一派则更看重硬件冗余带来的安全感。其实这两条路也没那么绝对互相排斥。现在技术进步很快,纯视觉的算法在变好,摄像头也在变清晰;融合派的传感器也在往小了做、往便宜了弄。 这场竞争最后可能会融合到一起,或者在不同的场景里分开用。比如说公共道路上跑的RoboTaxi和私家车里的辅助驾驶可能用的配置就不一样。不管是哪条路都得看市场和安全能不能过关。中国作为全球最大的汽车市场和自动驾驶创新基地,企业在选技术路线的时候还得结合国内的情况和安全标准去考虑才行。