{{detailStore.author.is_follow?'已关注':'关注'}}
理想汽车发布下一代自动驾驶架构MindVLA,这个架构看起来是更加智能了,能够结合用户的更多输入去适应更多场景。 —— MindVLA是机器人大模型,它成功整合了空间智能、语言智能和行为智能。 VLA 能让 汽车听得懂、看得见、找得到。 1.“听得懂”是用户可以通过语音指令改变车辆的路线和行为 例如用户在陌生园区寻找超市,只需要通过理想同学对车辆说:“带我去找超市”,车辆将在没有导航信息的情况下,自主漫游找到目的地; 车辆行驶过程中,用户还可以跟理想同学说:“开太快了”“应该走左边这条路”等 MindVLA能够理解并执行这些指令。 2.“看得见”是指MindVLA具备强大的通识能力,不仅能够认识星巴克、肯德基等不同的商店招牌,当用户在陌生地点找不到车辆时,可以拍一张附近环境的照片发送给车辆,拥有MindVLA赋能的车辆能够搜寻照片中的位置,并自动找到用户。 3.“找得到”意味着车辆可以自主地在地库、园区和公共道路上漫游, 其中典型应用场景是用户在商场地库找不到车位时,可以跟车辆说:“去找个车位停好”,车辆就会利用强大的空间推理能力自主寻找车位,即便遇到死胡同,车辆也会自如地倒车,重新寻找合适的车位停下,整个过程不依赖地图或导航信息,完全依赖MindVLA的空间理解和逻辑推理能力。 链接
  • 全部评论{{detailStore.commentnum}} 条
  • 只看作者
  • 最热
  • 最新
  • 最早

「待审核」

{{ comment.relativeTime }} 已被赞赏 {{comment.integral}} 积分 回复

暂无相关评论

发表一下个人看法吧
写评论
积分赞赏
点赞
评论区
  • 编辑
  • {{is_favourite ? '已收藏' : '收藏'}}
  • {{is_personal_top ? '取消主页置顶' : '个人主页置顶'}}
  • 举报
  • 加入黑名单
  • 删除
  • 取消置顶
  • 置顶推荐
    • 6小时
    • 12小时
    • 24小时
    • 3天
    • 一周
    • 长期
  • {{digest?'撤销精华':'设为精华'}}
回到顶部