{{detailStore.author.is_follow?'已关注':'关注'}}
之前听一个AI专家说:模型的摩尔定律是「3个月」,3个月就可以用更小的模型达到大一级的效果。 在deepseek出来之前,我还不信。现在等于是击碎了所谓高算力,以及储备算力的迷信。 这个规律放在智能驾驶行业里亦然,智驾进步的速度非常快,不看储备算力,看的是各家的模型算法,也是智能驾驶的竞赛可能才刚刚开始。 由于模型需要的算力越来越少,接下来的趋势将是AI PC,每个终端都将是一台本地AI。 所以,未来几年最火的不再是云端算力,而是终端算力。 车端的算力越强,蒸馏下来的模型越完整,比如deepseekr1 llama支持8b-70b(80亿-700亿的参数)的版本,70b比8b的强不少。
  • 全部评论{{detailStore.commentnum}} 条
  • 只看作者
  • 最热
  • 最新
  • 最早

「待审核」

{{ comment.relativeTime }} 已被赞赏 {{comment.integral}} 积分 回复

暂无相关评论

发表一下个人看法吧
写评论
积分赞赏
点赞
评论区
  • 编辑
  • {{is_favourite ? '已收藏' : '收藏'}}
  • {{is_personal_top ? '取消主页置顶' : '个人主页置顶'}}
  • 举报
  • 加入黑名单
  • 删除
  • 取消置顶
  • 置顶推荐
    • 6小时
    • 12小时
    • 24小时
    • 3天
    • 一周
    • 长期
  • {{digest?'撤销精华':'设为精华'}}
回到顶部