
- 全站推荐
- 全站置顶
- 首页推荐
- 社区推荐
-
置顶推荐
- 6小时
- 12小时
- 24小时
- 3天
- 一周
- 长期
- 设为精华
- 热门推荐
- 撤销审核
- 进小黑屋
- 生成议题
关注这次成都车展的小伙伴一定注意到了,飞凡R7官方新公布了一个叫做RISING PILOT飞凡全融合高阶智驾,或者说啊是给智驾系统取了个高大上的新名字。
而且在宣传里啊,我们能看到给出的修饰词是“可进化、可定义、全融合”算法实现智驾新突破,小母牛又上天了!进化,定义,这两个好理解,最关键的全融合,全融合,全融合!是要怎么理解啊?

翻看RISING PILOT的官方介绍,Full Fusion全融合算法,就是开创性的将前融合组合、多任务、多特征网络、深度神经网络输出的探测结果,与后融合多个传感器独立输出的探测结果进行综合比对,实现前融合和后融合的混合融合,并依靠高带宽、超算力芯片平台的安全冗余部署,通过三重融合在毫秒级内,完成感知、融合、预测、决策、执行等一整套应急反应,为用户带来可持续进化、更安全、更完备、置信度高达99.9999%的高阶智驾体验。
是不是看懂了,又好像没看懂啊,让我来给大家解构一下、分析一波。
我们都知道啊,环境感知技术是实现智能驾驶的前提条件。智能驾驶分为感知、决策、执行三大核心环节,其中环境感知是实现智能驾驶的第一步。目前主要感知方式包括但不限于:摄像头、超声波雷达、毫米波雷达、激光雷达以及V2X相关硬件等。感知就是汽车的 “眼睛”,决定了“我在哪”,而下一步决策就是“大脑”,决定了“要去哪”,最后的执行就是“四肢”,决定了“怎么去”。

看过我之前小文章的亲人们都知道啊,R7的智驾决策层,也就是“大脑”,是Orin X超算力、高带宽的芯片,单颗芯片算力达到254 TOPS,妥妥的时下“最强大脑”。
那R7的感知层,又是什么呢?对了,就是33个顶级感知硬件了:包括1颗全球首发量产的LUMINAR 1550nm高规激光雷达;2颗国内首发量产采埃孚Premium4D成像雷达,和4颗点云毫米波雷达;还有3颗800万像素摄像头、9颗300万像素摄像头、高精度地图等,不吹不黑啊,妥妥是在智能驾驶领域树立了全新的行业标杆。

那这么多硬件,通过飞凡的全融合算法,是怎么融合到一起去完成“眼睛“的功能的呢?
那就要拆解下这个所谓的全融合了。我们举例子,讲的通俗易懂点蛤。当你驾驶着R7遇到障碍物的时候,R7的Orin大脑就会发出指令,瞬间展开两种智驾算法:就是刚刚上文提到的前融合和后融合了。
我们不走寻常路,偏偏先来讲后融合。
后融合,本质就是激光雷达、毫米波雷达、高清摄像头们单兵作战,逐一形成各自判断,再汇总给CPU。每个传感器各显身手,得到一个判断结果的报告给到“大脑”。激光雷达的优势在探测精度高、可绘制3D地图,但收到环境的影响会更大;毫米波雷达受环境影响小、探测精度高、可同时测距测速,但频段易受干扰、角分辨率较低、对行人探测效果不佳;摄像头技术成熟、角分辨率高,但是受环境影响较大、探测距离有限。CPU根据各感知硬件置信度得出判断,输出大致结果。

前融合,则是各个感知硬件先对物体进行观察,再依托强大的超算力芯片,集中处理判断。哥哥传感器不同于单兵作战时各自输出结论报告,而更像是开大会七嘴八舌同时并且高频率的实时告诉CPU“大脑”观察所得,“大脑”直接根据多维数据汇总计算出结果。前融合,采用庞大数据与高频次的超级AI算法,但依然无法解决长尾问题,很难获得较高的置信度。

不过问题不大,R7的全融合算法,凭借33颗传感器和超强算力芯片平台的安全冗余部署,实现前融合和后融合的全要素融合,后融合的高效判断和前融合的超精度相辅相成,进一步降低了判断出错的可能性,从而确保了每一次判断更快、更准、更安全。