{{detailStore.author.is_follow?'已关注':'关注'}}
「深度解读」“针对”特斯拉?智己汽车 IM AD 的城市 NOA 是噱头吗?
新出行原创 · 精品文章

前几天智己 IM AD完成了魔都 40 分钟 0 接管的挑战,收到很多同学关注。

那“逃离”魔都后 IM AD 还好不好用?高峰期下 IM AD 表现如何?真正交付用户后的系统怎么样?

这一次我们带着这些问题,与智己汽车智能驾驶项目高级总监「脱悦」从另一个城市「苏州」进发,看看 IM AD 的智能驾驶系统表现如何,同时这次我们也掰开揉碎,看看 IM AD 背后的技术逻辑。

一、硬件:视觉+高精地图靠谱吗?

首先我们先来看看智己 L7 的硬件框架:

L7 搭载的是由「 12 个高清摄像头、5 颗毫米波雷达、12 颗超声波雷达、军工级高精度IMU、中海庭高精地图、V2X(辅佐作用)」组成的方案。

后续用户还可支持升级激光雷达、Orin 计算平台。

从上面的技术方案中我们看到,L7 搭载的并非采用主流的激光雷达为主的路线,而是利用视觉+高精地图融合更为低成本的方案实现城市级 NOA。

值得一提的是此次工程车的智能驾驶系统与 L7 相同以外,此次体验的功能(点到点智能驾驶)也能够在 L7 交付后实现,但具体需要看落地后的法规以及高精地图开放情况。

二、「上路」前,IM AD 有哪些「难点」?

我们先看看这套架构的难点:

  • 第一个是对多维物体的感知能力,特别是在拥堵情况下的近距离感知、高架快速行驶时的应对能力。

例如在道路上我们要知道周遭环境的的障碍物数量有多少、这些障碍物离我们多远、物体的朝向哪里等问题。而 L7 本身未配备激光雷达,势必存在挑战。

  • 另一个是基于定位能力

解决了我们上面的感知基础问题,那我们要知道我实时在道路中的哪个位置,以此来为我的“大脑”提供一个厘米级的定位。在没有激光雷达下特别在高楼遮挡、高速、拥堵城市道路它的实际表现如何?

  • 最后是对物体的行为预测与规划、控制能力

除了对前视物体的感知,还需要对周遭的车辆信息做实时预测与规控,考量整套系统的舒适性体验如何?

三:掰开揉碎 IM AD 是否是噱头派?

此次体验的时间我们选择在了苏州的高峰时间点,路线选择上覆盖了苏州当地的城区路段以及高架路,全程共 40 公里,共行驶约 1 个小时。

我们掰开揉碎,来看看此次体验的基础场景:

1、红绿灯、横穿行人、多车感知能力,目标检测准不准确?体验如何?

基于视觉方案的 IM AD 最具“争议性”的是利用视觉传感器融合能否识别到目标物,例如对于红绿灯识别、多车辆、行人等识别。

而感知的不稳定除了带来漏检、误检等安全问题,在规划与决策上也会出现明显的错误、犹豫,用户实际体验上明显不佳。

场景:识别慢车、逆行行人以及红绿灯十字路口

视频上传成功

从上面的体验我们看到在识别公交车进站时系统没有太多的犹豫或者采取刹车等待,而是通过对周遭环境的识别后自然向左变道。在随后遇到马路上的逆行行人这类长尾场景时,系统通过刹车观察,随后选择变道避让。

而在红绿灯识别场景下,IM AD 通过远距离识别后能够提前感知,所以能够提早执行刹车动作,整个体验上比较温和。

场景:遇快速车辆跨车道超车

视频上传成功

在遇到车辆快速 cut-in(加塞儿) 中,我们看到系统有短暂的刹车动作,在车辆离开后系统继续行驶,没有明显的急刹或者退出动作。

关于机器类的视觉感知,我大致总结有三类:

  • 一类是静止物体。例如我们传统的红绿灯、路杆等;
  • 一类是动态物体检测,例如我们看到街道中行走的行人、汽车等。
  • 最后一类是语义信息的分割。例如我们常见的路面标线等信息,我们上次在小鹏泊车和大家细聊了一些,以此来解决一些视觉融合定位等信息(知道我在哪里)。

在最为复杂的前视感知场景中,L7 采用了三颗主摄像头,其中两颗包括一颗长焦镜头,擅长对于远处物体的捕捉,例如对远处的红绿灯、提前识别到障碍物、车辆等。

还有另一颗前视鱼眼镜头,擅长对于近景物体的捕捉,例如我们常见的加塞场景。利用长焦镜头以及鱼眼镜头各自特性将这两者做融合,以此来相互验证,作出「最优解」的输出。

而对周遭物体的判断则「通过环视的鱼眼镜头来感知周遭目标物,并且与擅长对移动物体的速度做捕捉的毫米波雷达做融合,最终做最优解方案的提取,就完成了整个感知过程。」

所以这个前提是只有做好各个传感器的融合,才能对低速、高速等对目标做实时稳定的感知。

场景:超近距离 cut-in (加塞儿)

视频上传成功

我们在6遇到另一个「极端」的场景中,我们起步后遇隔壁车道相邻的车“别车”。

这也是一个典型的「超近距离 cut-in 场景」,双方进行「短暂博弈后他方车辆变道未成功,但我方做出了一个向左避让以及刹车动作」,避免事故发生。

只有对物体的精准“识别”,机器才能“有信心”处理更多极端场景,而有了这一个基础才能做好规划、控制以及做用户体验的优化。

在这次体验中, IM AD 视觉方案的处理能力颇具看点,例如环视镜头与其它传感器融合后对于近距离目标物的距离检测、加速度以及朝向的检测。

2、城市、高架定位能力。

体验过程中,由于没有激光雷达的协助,例如城市常见的高楼遮挡,GNSS 信号常会出现误差甚至漂移,这也给定位系统带来定位压力。

在城市道路中,特别是横向定位,如果定位出现偏差随时会出现车辆偏移,特别在堵车场景下更具危险,所以这也考验了 RTK、IMU 等的性能表现。

场景:通过红绿灯路口右拐

视频上传成功

通过城市十字路口的平顺性体验,最能考验定位能力。

除了对周遭目标物的检测,这里的右转场景表现稳定,在遇到前方有车辆经过时也能平缓处理,没有作出急刹动作。

而在下面的快速道路场景中,大曲率弯道中也是同理。

场景:通过大曲率弯道

视频上传成功

在通过大曲率弯道、超车等场景下,除了权衡我们上面提到的基于视觉对于物体的稳定跟踪以外,系统还需要对横向、纵向两者定位的稳定输出,这样才能保证方向盘的稳定以及体感上没有过多的摇摆、晃动。

过去我们体验的类似因为「感知算法」跟踪不稳定、定位困难后,机器频繁出现「急刹车」、「连续加减速」的问题,在乘坐体验以及冷汗指数表现都并不乐观。

3、高架道路的变道与加速逻辑

有了以上基础,我们接下来看看另一道难题,变道逻辑。

高架道路的 NOA 其实和城区 NOA 两个技术维度不同:

  • 城区 NOA 的场景更为复杂、多样,但速度维度普遍较低。
  • 高架快速路、高速道路速度维度普遍较快,对目标物的追踪、预测需要更加稳定、反应速度要更快,预测介入需要更早。

在变道逻辑上,IM AD 基于两个逻辑激发变道:

  • 第一个是与高精地图匹配寻找车道。

例如我们看到 IM AD 寻找匝道口时,会提前两公里左右开始向右侧变道。还有例如高精地图提前告知前方有虚线转实线时会提前变道。

场景:进出匝道汇总

视频上传成功

  • 第二个是当前方追踪车辆的速度与自身速度产生速度差时,系统就会预测左侧车道车流然后采取自主变道。

例如我们常见的遇慢车等场景,值得一提的是工程师提到 IM AD 也会避让大货车行驶。

场景:遇慢车自主变道

视频上传成功

在基础的上下匝道中,我们看到在高精地图下 L7 在整个过程中都很有信心,包括自寻车道线完成上、下匝道,在 Y 字匝道口中也能提前寻找自身的车道线,完成整个变道过程,不会因标线丢失后出现「方向盘摇摆」。

另外在变道后的加速逻辑上,与我们过往体验不同。

在顺利进入高架后,「 IM AD 并没有寻找时机立刻将速度提到限速值,而是整个提速过程相对缓慢,模拟人为驾驶,没有目的性提到限速值。」。这无论是给驾驶者还是乘坐者,都带来了信心。

这也和 IM AD 所调教的驾驶风格有很大关系。

目前 IM AD 将会针对不同习惯推出不同风格的自动驾驶系统以及会有一套自学习的系统,根据驾驶者的习惯来调节整个体验。

4、遇混乱、复杂标线

在体验过程中我们也遇到标线模糊老旧、出现断层或者变多车道的场景,在非常典型的高架下的混乱标线通过性上,显然在高精地图的加持下系统鲁棒性较高。

场景:通过模糊、复杂标线路口

视频上传成功

无论是模糊标线、还是混乱标线,IM AD 的通过性还是较为稳定。

而得益于众包能力,对于老旧车道线的迭代也会被车辆采集上传云端,完成道路信息的更新。

当然待交付用户后,「部分用户行驶的道路会出现丢失高精地图的场景」,怎么解决呢?

IMU 等传感器会暂时起到相对定位的作用或者起到航迹推演,但可持续时间较短,所以在这之后智能驾驶系统会出现降级。

三、当前智能驾驶出行的「痛点」是什么?

除了对于技术以及场景的解析,我们也需回到用户本身,看看当前智能驾驶在解决用户出行是有哪些痛点?

1、点到点的场景更新能力不足,带来体验「断层」。

应对国内复杂的城市道路场景,高精地图依旧是国内当前的主流技术方向。

但当前高精地图的更新覆盖以及机器「学习」、「认知」的不完善,对于用户而言,常常带来智能驾驶体验上的断层,例如智能驾驶系统会突然性退出。

还有「对场景训练以及地图更新不及时,在点到点之间用户需要反复介入等问题。

2、驾驶者与机器的「博弈」,提高「冷汗指数」。

目前主流的辅助驾驶系统下机器具备优先“驾驶权利”,而在人为介入时,系统则会默认退出,需要驾驶者再次重启。

而当机器处理不了的场景下系统会直接触发人为「退出」,直接交由「人为接管」,这也意味着驾驶着时刻观察环境变化,提高「冷汗指数」。

在完全自动驾驶未到来之前,人机共驾如何做到深度融合

这也提出了一个新的挑战。

四、智己 IM AD 有哪些解决思路?

那在过渡到自动驾驶之前, IM AD  在解决痛点的问题上有哪些解决方法?

我把它总结为「成本、数据驱动与交互」三个维度。

1、成本。

视觉传感器的成本比较低,深度学习的算法的通用性较强,在迭代的成本、基于硬件平台的更新较快。

背靠 Momenta 对于自研算法的掌握,算法驱动硬件的更新也能够快速迭代。

2、利用驱动算法来实现点到点的更新

在国内,自动驾驶的技术挑战以及场景更为复杂,关键在于两个关键节点:

  • 一个是如何利用好场景;
  • 另一个是掌握数据驱动的算法。

两者融合驱动技术更新迭代,成为下半场的核心竞争力。

例如我们上面场景提及的对环境目标物的感知、高精地图甚至需要接管场景进行收集,通过驱动算法完成升级。

但在这时候我们会遇到一个难题:

即面对如此庞大场景我们要如何收集?如何存储?

其实这考验的是「系统对场景的分析、处理甚至是理解能力。」

「位于 IM AD 车端上具备一个筛选器,负责对于「难题」场景进行筛选、收集,然后自动将数据上传到云端完成一个数据标注、训练,待更新后在传输至云端实现升级。」

这样难题对于以深度学习驱动的技术路线而言,带来了许多优势。

在解决「机器感知」与「机器认知」上,利用众包解决数据累计的问题,只有深度学习的进步才能驱动机器学习、机器认知的进步。

3、信任增强,提高安全与实用性。

在交付用户后,IM AD 会采用一套新的智能驾驶「交互形式」:

利用 WIFI 信号标的逻辑,共划分为三个等级。

例如在三格满格状态下为系统处于可完全通过;在两格状态下为提醒用户关注路况,例如在堵车、暴雨天等场景下;而一格状态下为提醒用户随时接管,例如在极端天气、极端路况等。

在体验上能够给用户做一个梯度式的预期,不会产生断层式或者突然性退出的体验,增强用户的使用信心与安全性。

而在信任增强体验上,系统还会结合当前的道路状况、天气预报上做预测判断。

视频上传成功

另外在智能驾驶的风格上也有三个阶梯给用户自行调节,「包括激进、半激进以及保守式(具体命名未定)」。

而在后续中,IM AD 会为用户推送一个「自学习模式」,通过学习用户的驾驶习惯匹配一个贴合用户习惯的智能驾驶风格。

通过信号标或者是这种置信度的沟通,来减缓用户类似于这样的一些场景的焦虑性。

例如在城市道路、高架拥堵道路或者行驶速度较快的高速路,车与车之间的博弈、变道、加塞都需要均衡机器的综合表现。

五、总结

在自动驾驶未到来之前,除了技术的更新进步,如何赋予机器温度以此来实现人与机器的交互,让智能驾驶系统更具实用性与安全性,这也成为过渡期中我们需要面对的难题, IM AD 似乎给予我们一些新的参考。

在其以视觉与高精地图融合的技术方案中,  IM AD 后续也会帮助用户升级激光雷达等传感器,伴随着的还有更高阶的计算平台。

当然这并不意味着这是朝着另一种技术或者方案过渡,目的只是为了拓宽智能驾驶系统的使用范围,实现更多复杂场景例如极端雨天、雾天等的通过性,满足安全这个第一性问题。

通过数据驱动的方法以及对场景的高效迭代,利用算法驱动硬件的进步,智能驾驶也将更进一步融入进我们的出行场景中...

写评论
积分赞赏
点赞
评论区
  • 编辑
  • {{is_favourite ? '已收藏' : '收藏'}}
  • {{is_personal_top ? '取消主页置顶' : '个人主页置顶'}}
  • 举报
  • 加入黑名单
  • 删除
  • 取消置顶
  • 置顶推荐
    • 6小时
    • 12小时
    • 24小时
    • 3天
    • 一周
    • 长期
  • {{digest?'撤销精华':'设为精华'}}
回到顶部