{{detailStore.author.is_follow?'已关注':'关注'}}
ADS3.1体验 今天上下班体验了两次NCA了。我认为这才是ADS3.0应该有的表现。上个版本真没让大家感觉出来有明显提升的地方。 加减速,转弯都很丝滑。甚至碰撞也可能是丝滑的发生。今天有一个无保护右转。我要转入的道路是直行的快车道,我们要右转,然后汇入车道。我们丝滑的右转,然后开始丝滑的向右汇入。后车离我很近,但是系统不着急加速,丝滑的缓慢加速。后车对我们丝滑的动作很无语。 今天直行的路口,有一个路口走错路,有一个路口走对路。走错的原因还是老问题。 代客泊车AVP的动作,一如既往的丝滑柔和。 造成这个表现的原因肯定是学习的数据。选择的数据都是丝滑柔和的驾驶员的数据。系统学习出来的效果当然就丝滑了。 按照以往的惯例,大版本升级后的前三个版本都可以有较大幅度的正向体验升级。到了后面的版本升级,很可能就会出现某些场景下的体验倒退。 到了端到端Ai技术架构,一切皆数据驱动。对于模型表现出的诡异动作,很难去解释。需要用修改数据和参数的手段才能解题。很有可能出现按下葫芦浮起瓢的现象。一味的靠扩大参数量来获得正向的体验提升可能并不可行。ChatGPT5的延期也说明了问题。但是O1模型引入的思维链的推理很可能是新的发展方向。 基于预训练的方案的糟糕问题就在于,模型只是一味的去模仿人。他并没有真正的智能。那什么才是智能呢?我们举个栗子,谷歌的阿尔法机器狗下围棋。对于这种规则清晰,并且通过胜负可以明确知道结果的场景。机器狗出旗时可以去思考,他会基于当前的棋局去推理后N步最优的策略,假如优秀的人类棋手可以推理5步棋,那么机器狗可以推理500步。而且每局棋都有一个输赢的结局。如果输了,机器狗就得到了负反馈,相反赢了就得到正反馈。不断的循环训练就可以得到一只神狗。 开车也是一样的。如果开车的时候可以重点推理与我们有交集的参与者的行为,那我们系统肯定可以做出一个最优的决策。但目前我们的系统只是模仿人类开车的生硬动作,他并不知道面对这种场景这样操作的原因。所以目前的端到端的模型输出的轨迹并不一定肯定靠谱,模型输出错误的结果后,模型自己并不知道,所以还时刻需要驾驶员注意并接管。 但是我个人对端到端技术方案还是有信心的。因为我们人开车的时候,我们的决策效率非常高,而且我们不需要掌握非常全面的数据才能做决策。我们的超车,绕行,加减速等动作的原因都可以很明确的表达出来。目前端到端系统接受的数据量太大了,99%的数据都是噪音。下一步要解决的就是如何高效的使用有效数据,做出正确的推理判断,系统需要拥有强大的自我纠错能力。 我现在担心的点,ADS的芯片对于transform底层支持并不好。而下一代nvida和地平线芯片都重点优化了对transform的支持。
  • 全部评论{{detailStore.commentnum}} 条
  • 只看作者
  • 最热
  • 最新
  • 最早

「待审核」

{{ comment.relativeTime }} 已被赞赏 {{comment.integral}} 积分 回复

暂无相关评论

发表一下个人看法吧
写评论
积分赞赏
点赞
评论区
  • 编辑
  • {{is_favourite ? '已收藏' : '收藏'}}
  • {{is_personal_top ? '取消主页置顶' : '个人主页置顶'}}
  • 举报
  • 加入黑名单
  • 删除
  • 取消置顶
  • 置顶推荐
    • 6小时
    • 12小时
    • 24小时
    • 3天
    • 一周
    • 长期
  • {{digest?'撤销精华':'设为精华'}}
回到顶部