Mobileye的「阳谋」
每年,在CES(国际消费电子展)上,辅助驾驶领域巨头Mobileye的CEO Amnon Shashua都会分享一些技术向的内容。
每年听这位教授的演讲也成为「必修课」。
虽然是非常枯燥的技术向文章,可能不会有太多人关注。但我还是希望写出来,帮助大家一起成长,了解到更多行业新知识。
在过去的2021年,Mobileye从30+OEM中拿下了41个新的ADAS项目,涉及到5000万台车,对比之下,2020年这一数字为3700万,让人印象深刻。
与此同时,在过去的2021年中,有188款车型搭载了Mobileye的技术。
去年,是Mobileye里程碑的一年。
透过这张表格,你能看到,从2014年到2021年,Mobileye芯片出货量的情况。
去年,这个增量真的是非常夸张,肉眼可见的要比前几年增速更猛,从2020年的1930万片涨到了2810万片。
这个增量其实很大程度上来自行业助推,越来越多的厂商都开始重视智能化,尤其是与之相关的智能驾驶。
12月,Mobileye的EyeQ® 系统集成芯片(SoC)的总出货量已经突破了1亿片,换句话说,有近1亿辆汽车搭载了其技术。
还记得年初本田推出了全球首个符合法规的L3自动驾驶车吗?
这里面就有Mobileye的功劳(主要是视觉感知部分)。
此外,基于EyeQ5的120度、800万像素摄像头首发于宝马,此外,今年宝马L3自动驾驶也会有Mobileye的赋能(可惜,这个大客户被高通抢走了)。
对于智能驾驶来说,有两样东西至关重要:一个是算法,一个是数据。
数据喂养算法,可以让算法变得更好,算法更好,智能驾驶体验更优。这也是为什么现在这么多车企都选择构建「全栈」自动驾驶的原因。
现在,Mobileye已经采集了200PB的数据(一部分在本地,一部分在云上)。
这是什么概念?
做一个简单的数学运算:1PB=1024TB,而1TB=1024GB,那么200PB呢?
即便不做运算,你都能感觉到Mobileye现在手握的这个数据库之庞大。
Amnon透露,Mobileye拥有丰富且相关的数据集,由2500多名专业标注人员手动标注或自动标注。该计算引擎依靠云服务器中的50万个峰值CPU内核,每月处理5000万个数据集——相当于每月处理由50万小时的驾驶素材所生成的100 PB数据。
「这些数据配合Mobileye计算机视觉技术和自然语言理解(NLU)模型使用,即使是罕见条件和场景下的“长尾”事件,仍可以在几秒钟内输出数千个结果。而这有助于自动驾驶汽车和一流的计算机视觉系统处理边缘情况,从而让自动驾驶汽车实现超高的平均故障间隔时间(MTBF)」
说人话就是:即便是极限场景也能很好地实现智能驾驶。
而这,也是为什么Mobileye在计算机视觉感知上这么强的原因,也是为什么这么多车企选择Mobileye的原因。
那么,Mobileye如何拿到的这些数据?
这要提到Mobileye的REM地图定位技术(Road Expeerience Management),即基于驾驶辅助系统的众包技术。
只要是搭载Mobileye EyeQ芯片的车型,都可以通过摄像头收集道路数据,而后上传到云端。
REM过程大致如下:
1、通过装有EyeQ芯片的车辆采集道路和道路标志数据;
2、REM数据加密上传至云端;
3、数据整合生成自动驾驶所用高清众包路数;
4、地图图块分配到车辆;
5、即可以低于10cm定位精度在路数上定位车辆。
比如在日本,Mobileye就在用这个众包技术采集地图:
在过去5年时间里,Mobileye把这些数据拼凑在一起,形成高清地图,为高级别辅助驾驶提供支持。
目前,Mobileye拥有全球最大的测绘众包车队,每天收集到2500万公里道路数据,在2021年,Mobileye收集了40亿公里的数据,今年这个数据能到90亿。
这真的是先发优势,而且这个优势随着Mobileye庞大的芯片交付量,还在不断增加。
基于此,在这次CES上,大众、福特、极氪与Mobileye深化了合作。
大众:成为首家应用Mobileye地图的车企。具体来说:「在某些路段,车辆能够在没有明显车道标记的区域内提供车道保持辅助功能。Mobileye专有的道路信息管理(REM™)技术能够在云端自动聚合并生成自动驾驶汽车地图,为自动驾驶汽车提供真正全球化和可扩展的地图解决方案。」
「基于大众MEB平台的大众、斯柯达和西雅特电动汽车即将推出搭载路书(RoadBook™)的Travel Assist功能。」
福特:福特与Mobileye合作由来已久。去年7月,双方在辅助驾驶上达成合作,这次双方扩大了合作规划:「Mobielye的道路信息管理(REM™)地图技术将添加到福特BlueCruise系统的未来版本中,并为多个品牌和车型提供L2+ ADAS解决方案。」
之于极氪,按照计划,除过现在开始交付的极氪001,后续还将有一系列极氪不同的车型搭载Mobileye方案。最早2024年双方将向消费者提供一款由Mobileye Drive™驱动的自动驾驶电动汽车。
在自动驾驶传感器系统构建上,不同于其他公司的多传感器融合路线,Mobileye的思路是:直接构建两套端到端的解决方案。
没错,你没有看错,两套。
所以Mobileye用纯视觉做了一套辅助驾驶解决方案:Mobileye SuperVision ™(定位L2++)。
这一套已经在国内造车新实力极氪ZEEKR 001(参数丨图片)上实现首发量产。
此外,Mobileye推出了另外的基于毫米波雷达和激光雷达的端到端系统:Mobileye Drive™。
在实现智能驾驶上,使用两套相互独立的传感器配置来形成冗余,提升感知能力、降低成本。
很多人对于这个东西不熟悉。
RSS全称是:Responsibility Sensitive Safety责任敏感安全模型。官方解释是这样的:
说人话就是:这个模型的出现相当于为自动驾驶怎么开定下规矩。
很多企业都与Mobileye就这个RSS达成合作。国内自动驾驶领头羊百度Apollo算是其中一个,早在2018年7月,双方就达成合作,百度宣布将把RSS模型部署到Apollo项目中。
而在这三件利器的加持下,未来,Mobileye业务将会有两大走向:L2+和L4业务(Robotaxi出租车和消费级自动驾驶车)。
L2的业务就不说,上面已经聊了很多了。
在L4自动驾驶方面,Mobileye已经在全球各地进行自动驾驶车队测试。此次也新增了两个站点:法国巴黎还有日本东京。
今年年中,Mobileye将在特拉维夫和慕尼黑推出商用自动驾驶出租车服务。
等到年底获得许可之后,Mobileye将把驾驶员拿掉,实现真正的自动驾驶。
说了这么多,大家都知道Mobileye在视觉感知这一块的深厚功底。但是大家不知道的是,在毫末波雷达/激光雷达上,Mobileye也做了自己的布局。
基本上核心要到的传感器,Mobileye形成真正的传感器全自研。
先说毫米波雷达。
去年的2021 CES上,Mobileye发布了自己的4D成像雷达。 相比于传统雷达,成像雷达可以得到更多道理信息,甚至获得和激光雷达类似的信息。
这是Mobileye的成像雷达的实际效果:
可以看到,这款雷达对于物体的感知已经有激光雷达点云的感觉了,而且细节也很丰富。
Mobileye还做了一个对比,拿这个成像雷达和激光雷达所能得到的信息量差不多。
这还没完,Mobileye还把这个成像雷达和摄像头感知放在一起,用神经网络进行训练,于是得到了这样的结果:
注意,这并不是一个真实的图像,而是这两种传感器映射出来的画面,在下面这张图中,你甚至能看到护栏???
这个能力真的太强了。
而且,关键在于,成本很低。按照Mobileye的说法,这种成像雷达的成本是激光雷达的1/5-1/10,传感器成本将得到大幅降低。
2024/2025年,这款成像雷达就会实现量产。届时,只需要一颗前置激光雷达来提供冗余即可。
激光雷达方面,Mobileye意图打造一流的FMCW 激光雷达(Building the Best-in-Class FMCW LiDAR),预期在2024年实现量产。
而在计算机视觉端,Mobileye打造了EyeQ® Ultra™和EyeQ® 6L和EyeQ® 6H。
核心传感器的全面自研,也让Mobileye可以绕过其他供应商,拿到不失真的所有感知端的数据,从而打造出更好的智能驾驶体验。
最后,还是来小总一下:
EyeQ® Ultra™芯片:2025年车规级量产;
成像雷达:2024/2025年量产;
FMCW激光雷达:2025年量产;
而2024/2025年也是Mobileye实现消费级L4自动驾驶量产的时间节点。
细思恐极,真的是细思恐极。Mobileye的「算计」真的太深了。
但是,Mobileye就没有短板吗?有,而且很大。
还记得刚刚说的EyeQ® Ultra™么?算力176TOPS。
这是什么概念?英伟达Orin芯片算力254TOPS,而且今年就要上车了,而Mobileye的这一款新品量产时间是在2025年......
虽然Amnon表示,相比于算力来说,芯片效率更重要,但是车厂们已经在用脚投票了。
Mobileye需要解决自身内部的一些问题,市场洞察和反应能力要更快一些。
而对外,后浪已经崛起,开始抢Mobileye的蛋糕。
所以,对于Mobileye来说,接下来这两三年,挑战真的不小。
创作不易,您的点赞评论转发是对我最好的鼓励和支持。