业务合作发布作品

    特斯拉只用摄像头,是省钱还是玩命?,纯视觉真能看清楚路吗?

    王子的价值1973头像王子的价值1973头像
    王子的价值1973前天 21:00

    前两天看了个新闻,挺有意思。特斯拉的FSD系统又被喷了,这次不是普通网友,是Waymo以前的CEO约翰·克拉夫奇克,在CES上直接开骂,说特斯拉靠几个摄像头搞自动驾驶,就像让一个视力只有20/60的人开车,连美国考驾照的标准都达不到。这话听着刺耳,但细想也不是没道理。

    他重点说了特斯拉车顶上那七个摄像头,六个是广角,像素看着高,实际看远处的东西模糊得很。高速路上一个故障车停在前面,系统可能根本认不出来。尤其是晚上或者下雨天,镜头反光、起雾,图像全是噪点。这种时候没有雷达帮忙测距,全靠算法猜,风险太大。

    他自己做的Waymo,车子上装得满满当当。五个激光雷达,二十九个摄像头,还有六个毫米波雷达。人家叫“多传感器融合”,不靠一个吃饭。激光雷达晚上也能用,雨雪天照样出数据,毫米波雷达直接穿透雾气,测速测距准得很。出了问题还能互相验证,哪个传感器出错了,别的能兜住。

    特斯拉偏偏相反,2021年就砍掉毫米波雷达,2022年连超声波都不要了。马斯克坚持说人靠两只眼睛都能开,车为啥不能只用摄像头?他认为加太多传感器反而会让系统混乱,不如用AI硬学。他们的思路是,用上百万辆车在路上跑,每天收一大堆真实数据,喂给神经网络,让它自己学会判断。

    FSD现在已经是V12版本,走的是端到端路线,图像一进来,方向盘怎么转、油门踩多少,全由神经网络一把搞定,中间几乎不靠人工写规则。这种模式学习快,适应性强,特别是在城市里遇到各种奇怪情况,反应比传统系统灵活。

    但问题是,这种灵活性建立在数据足够多、场景足够全的基础上。可现实里,总有没见过的状况。比如一辆翻倒的白色货车横在路上,摄像头分不清是云还是障碍,算法就可能直接冲过去。这事儿几年前出过一次,后来虽然改进了,但隐患还在。

    Waymo那边更保守,宁愿慢一点,也要稳一点。他们在凤凰城跑了好几年无人出租车,全程无驾驶员,累计一亿英里以上,严重事故率比人类低了九成。背后还有个超大仿真系统,把现实中遇到的问题翻来覆去地模拟,提前训练应对策略。

    两拨人的理念完全不同。Waymo认为安全必须前置,硬件冗余不能少;特斯拉觉得数据才是王道,算法可以补硬件的短。一个追求绝对可靠,一个追求快速落地。前者成本太高,一套设备几万美元,根本没法装到普通家用车上;后者硬件成本压到五百美元以内,理论上人人都能用。

    用户态度也分裂。有人支持特斯拉,说它像人开车,便宜好推广;也有人信Waymo,特别是一些运营公司,觉得在恶劣天气里更靠谱。但不管哪边,最后都得过监管这一关。L4级自动驾驶不是你觉得自己行就行,得官方认证,出了事要能说清楚是谁的责任。

    最近特斯拉在奥斯汀做了四十万公里的无人测试,没出大事。但全程限定区域,路线固定,复杂程度跟Waymo在旧金山那种乱流街区比,还是差一截。而Waymo虽然技术强,扩展速度太慢,几年才进几个城市,商业化压力也不小。

    有人开始讨论,以后会不会两条路合并?激光雷达现在便宜了,有些国产型号已经下探到千元人民币级别。说不定哪天特斯拉在高端车型上悄悄加上一个,不算违背初衷,又能提升安全性。毕竟命只有一条,车主也不会真计较多几个零件。

    但目前来看,双方还在按自己的节奏走。特斯拉继续靠海量车辆收数据,迭代软件,推订阅服务赚钱;Waymo守住核心区,打磨系统,等技术成熟再扩规模。

    克拉夫奇克那句“近视眼”的比喻确实难听,但也点出了问题核心——你到底信机器的算力,还是信物理层面的感知保障?没有雷达,真的能活下来吗?这个问题,不是谁嘴大就能定的,得看路上跑出来的结果。

    次阅读
    评论
    赞同
    收藏
    分享
    评论
    赞同
    收藏
    分享

    评论·0

    头像头像
    提交评论
      加载中…

      热门资讯