业务合作发布作品

    硬核科技论 | 享界首发 最强智驾 华为ADS 3.0更新了啥?

    搜狐汽车头像搜狐汽车头像
    搜狐汽车2024-08-12

    几天前,享界S9(图片|配置|询价)正式上市,一同首发的还有ADS 3.0智驾系统,其中最吸引人眼球的是首次实现了“车位”到“车位”的端到端智驾辅助。它究竟有多厉害,为什么有这么厉害,本期视频就来给您解答。

    加载中…

    去年的节目中,我们给大伙详细解读了华为ADS 2.0。有了前面的基础,我们就能更好地了解ADS 3.0了。在使用层面上,根据余总的说法,3.0解决了车位到车位的端到端驾驶辅助,也就是你从自己的固定车位到单位、商场或者别的什么地方的固定车位,导航设好目的地后就不用管、等它自己开到就行了。同时,新增了自动过闸机、中途修改目的地、远程挪车、代客泊车等功能;相较2.0还解决了环岛问题和掉头问题——ADS 2.0面对这两个场景还是需要人来接管的(虽然还不是100%完美)。

    那么,ADS 2.0到ADS 3.0是怎么实现的。其实这个过程并不像当初的0-1,而是更像1-2。具体来看,就是从2.0的BEV网络+GOD神经网络变为全部的GOD神经网络。说人话就是之前还保留了一部分底层程序设定的规则,比如红灯停绿灯行这种;而随着智驾测试里程的增加,给神经网络学习的样本数量越来越多,就不需要BEV提供的底层程序了。这个过程听上去是不是有点耳熟?之前特斯拉FSD爆发式升级,也是这样的。把数量繁多的底层规则代码扔掉,全部采用神经网络。这样我们就得到了一个“类人”的智驾感受,当然,这样做的前提是智驾样本数量要多,便于机器学习。

    神经网络是如何学习人类开车的?这里我们不妨深入给大伙讲解一下。传统概念里的驾驶辅助,是工程师提前写好规则,比如“红灯停、绿灯行”,这样车在探测到红灯的时候就会刹车,探测到绿灯就会加速。这样的规则会有成百上千条,但依旧不够真实道路上每种可能的情况。比如鬼探头的行人、逆行的电瓶车甚至蛇形走位的电动轮椅……每出现一种新情况,就需要工程师新写一条算法。

    比如今天看见一辆轩逸在你前面尬悠,你当然知道它是网约车,可能还在接单,但自动驾驶不知道,就需要你回去给它写一条“日产=网约车,该超就超”的规则;自动驾驶学会了,下次看见日产就开始变道超车,结果没超过去,你抬头一看,虽然也是日产,但人家是GT-R。

    于是你还得写一条让电脑区分轩逸和GT-R的算法。这就是为什么传统驾驶辅助往往需要更大的算力——规则太多了。而现在流行的神经网络方案,则是去掉这部分“规则”,直接让机器去模仿人类的开车。还拿红灯停、绿灯行举例,你不需要给神经网络写这条规则,它只是参考了众多人类驾驶员面对红绿灯时的反应,比如100个司机有99个看见红灯都停了,然后神经网络看见红灯就会停车。它虽然不知道为什么红灯要停,但大家都停,它也跟着模仿,基本不会出错。再比如面对白色慢速日产,99个人类司机选择超车并成功超了过去;而另一个没有选择超车,同时图像传感器又告诉AI,两台白色车虽然都是日产,但人类没选择超的那台好像长得不太一样。这样,AI虽然区分不出来轩逸和GT-R,但只要再看见一台长的很怪异的日产,也就不会贸然去超越。是不是和我们人类认识世界、学习世界的原理很像?这也是这种AI被命名为神经网络的根本原因。

    当然,从ADS 2.0到3.0,需要的就是大量的样本数量去让机器学习,样本数量也是其中的重要一环。到此,我们可以给ADS 3.0下个定义,我们可以把它理解成一个披着L2皮的L3——因为有法规限制以及免责条款的存在。所以您实际使用驾驶辅助功能时仍然需要集中精力,即使ADS 3.0如何先进,也不要把安全完全寄托给机器,因为出了事故,法律上第一责任人还是驾驶员而不是驾驶系统。

    次阅读
    评论
    赞同
    收藏
    分享

    评论·0

    头像头像
    提交评论
      加载中…

      热门资讯