踩了油门也能刹车,华为ADS 3.2内测,遥遥领先这次实现了?
一天时间,中国汽车都沉浸在“世界第一”里。小米SU7(参数丨图片) Ultra,用真刀真枪的6分46秒874,拿下了纽北最速四门车,成为了世界第一;小鹏汽车,说自己从智驾到企业风格,都和马斯克的特斯拉一样,当然,也有人选择不说话。今年10月25日,华为智能汽车解决方案不动声色的发布了ADS Pro V3.1版本,甚至在次日还迅速开启了V3.2 beat的内测体验,从之前的ADS 3.0智驾效果看,其实就已经非常接近脱手自动驾驶了,而新版本在这基础上,又优化了对细节的感知能力,也新增了不少更类人的决策,总之,整体的功能框架在完成车位到车位这类操作上更加流畅了,参考其他品牌的智驾节点,下个月会有理想500万CLIPS的6.4新模型,小鹏纯视觉5.4、小米新版NOA、智己大规模推开的momenta等等,为什么说华为ADS Pro V3.2更值得大家期待呢?
先来回顾一下华为乾崑智驾ADS V3.0的功能效果,在拿掉BEV网络之后,负责感知的GOD网络和负责预测决判的PDP网络,在激光雷达、4D毫米波雷达这类感知硬件的配合下,可以全天候对道路细节做到感知,比如会看红绿灯、会过闸机、启动场景不受限制,遇到鬼探头不会突然一脚刹停,在复杂路口或者交错环岛的通行率也有一定的保证,但做了出于安全冗余考虑,系统在这类场景多数还是会主动降级到LCC,而在最新的版本中,ADS Pro V3.1和V3.2 beat都优化了这类细节,接管率和执行决策都做到了更低、更类人,除了这些,新版本还在哪些方面有明显提升?
从实测体验结果来看,ADS Pro V3.1和V3.2 beat优化了几处功能,包括NCA路口通行,低风险降低脱手警告频次、学习代客泊车路线,导航试图分频显示、雷达遮挡提醒、识别井盖等。这其中,脱手警告不再时不时就突然弹出来,而是系统在判定当下智驾场景风险不高的时候,会一直处于静默状态,从某种意义上讲,这个功能的出现几乎说明华为已经无限接近到了L3,下一步要做的就是接着优化在高风险场景下的决策能力,像在拥堵加塞、人车混行的复杂路口,整套系统的处理机制不再显得呆板,而是伺机加塞或选择绕行,这个执行效果就非常拟人,甚至是在窄路会车或者U型掉头时,系统还会根据与周围障碍物的距离,选择多打半圈方向盘,增大转弯半径避免发生剐蹭。
比较有意思的是新增的几个功能,具体是NCA靠边临停,路面自适应防碰撞,横穿防碰撞避让、误踩加速踏板识别以及误挂挡防碰撞,在之前的版本之中,当导航即将到达目的地时(尤其是非停车场场景),系统会跳出界面提示必须由人工接管泊车,这次的优化就是解决了最后这部分的人类驾驶员操作,直接让车辆自主靠边停车,而在“防碰撞”的几个功能当中,基本都是GOD网络调动AEB发挥了作用,比如当感知硬件发现路面附着力不高的时候,系统会提前触发AEB,随时进行重刹,之前一直有提到的预判鬼探头,更多的其实是针对静止障碍物所完成的判断,比如双向主干道突然蹿出的行人或电瓶车,在察觉到道路危险后已经停止了运动轨迹,优化之后预判的底层逻辑不变,变的是可以在道内或借道紧急避障,当然了,华为也给这项功能做了安全冗余,只有在低速加塞场景之下,才能触发横穿/斜穿防碰撞。
误踩踏板防碰撞有必要单独拿出来聊。前几年,车主对新能源汽车的单踏板模式争议许久,大部分车主认为有类似制动效果的加速踏板,在慌乱中难以分辨自己是否已经采取制动,所以普遍会误踩踏板发生剐蹭,现在看这个问题其实很好解决,在端到端的智驾模式下,可以给大模型训练特定场景,或者直接给它规则,当传感器识别到已经触及碰撞危险距离时,直接调动AEB进行制动,所以即便是驾驶员依然踩着加速踏板,车辆也能刹停,不论是走纯视觉路线还是多传感器路线的智驾方案,这个功能其实都是可以实现的。
值得一提的是,华为在10月25日发布ADS Pro V3.1,次日就推送了V3.2 beat内测,这似乎说明V3.1版本还不够“完美”,从3.1版本的多个实测体验来看,比起内测版本最明显的区别,是后者智驾过程花费的时间更少,同时接管率也更低,也就是说,内测版在细节处理上的决策机制,明显要显得更聪明一些,比如在最考验博弈能力的环岛或复杂路口,在没有自动降级的情况下,同样是面对移动障碍物,3.1版本在考虑选择礼让还是借到绕行的时间,都要比内测版本慢上几秒,所以建议后期直接升级到V3.2正式版。
前面提到,误踩踏板防碰撞两大智驾方案都可以实现,但要是拆开来讲,有激光雷达安全冗余度肯定更高一些,毕竟,这种处理方案需要对环境进行实时扫图然后交给大模型去理解,不过在复杂路口环境下,可能会导致系统需要更多的处理时间和算力,这就引出新的思考了,对于没有激光雷达的纯视觉方案,把算力堆上去是不是也能更好的解决?
答案自然是肯定的,算力储备高就意味着大模型在单位时间内,处理数据的速度可以更快,这也是促进AI学习和训练的基础,虽然激光雷达确实会占用一部分算力,把感知数据输送给智心也需要时间,但是这个缺点可以通过优化预判决策网络给弥补掉,引出几个数据作为参考,智己momenta云端算力只有2.5 E FLOPS,理想汽车为4.5E FLOPS,华为乾崑智驾目前有5E FLOPS,小鹏明年会从2.51E FLOPS拓展到10E FLOPS,而特斯拉则高达35E FLOPS,换句话说,激光雷达的出现,其实是不需要太高云端算力的,而纯视觉方案正好反了过来,可能有人不理解了,高算力是不是就等于智驾能力强呢?
并不是,算力只是指芯片每秒能够执行的运算次数,而算法才是自动驾驶的核心,特斯拉FSD就是一个典型的端到端算法,今年转向AI鹰眼的小鹏也是类似的逻辑,都是需要用足够的实测视频训练神经网络,感知层面的数据来源仅仅是靠摄像头来完成,而前两天智己发布的momenta,底层逻辑虽然也是如出一辙,但是感知元件多了一颗激光雷达,所以这就可以很好理解了,纯视觉智驾方案需要大量的算力,也需要不断进化的大模型算法,优点是系统的驾驶行为可以学习人类驾驶员的习惯,计算任务相对精简,级联误差减少之后,数据驱动更容易发挥规模法则,缺点也就很直接了,就是需要堆更高的算力储备和强化算法。
相比之下,现阶段华为的GOD+PDP方案,其实优势要更多一些,就拿最容易出现降级的复杂路口来说,从GOD+AEB的分段式架构变成GOD一张大网,直接就省掉了原来数据传递过程中需要的时间和算力,甚至是路径的博弈,而BEV网络存在之前,系统是需要将整个场景对上障碍物的坐标,然后还要对每个障碍物单独去做运动轨迹分析和预判,这些都需要计算的成本和时间,若是在数据分析量庞大的复杂环岛,BEV网络就会出现数据分析过慢、输送延迟,直到过载导致降级转为人工接管,所以去掉BEV融入GOD网络,可以不再单给运动障碍物分析坐标,直接预测它的轨迹路径就可以了,通俗一点来讲,道理其实和分段式架构并成一张大网是一样的,而实现这些的前提,都是需要大网具备复杂路况的数据理解能力和处理能力。
再有就是感知硬件上的能力了,4D毫米波雷达通过回波可以对小体积的异性障碍物构成立体模型,华为自己的192线激光雷达也是用更多的激光线束对道路细节实时扫图,都是给GOD大网提供数据更加精确的原始数据模型,所以从某种程度上讲,取消BEV网络也是给高精雷达传感器的性能来回“松绑”,具体到效果层面上看,最多两把就能泊入车位的自主泊车功能就是最好的例子。
总结一下,从2021年发布ADS 1.0,到2023年引入GOD网络概念,再到2024年形成由GOD+PDP构成的一张大网解决所有功能,华为的这套乾崑智驾方案,其实在3.0版本的时代就基本摸到了L3级自动驾驶的门槛了,所以在这套系统之后,华为只需要再优化一些处理机制上的细节,提升一些决策执行的速度,能和数据积累量极其庞大的特斯拉FSD抗衡,不出意外的话其实现在就只有华为了。