看起来楠总身边做智驾的朋友没有给...

  • 不是郑小康
  • 2025-02-15 16:27:40
看起来楠总身边做智驾的朋友没有给到楠总及时的输入。

DeepSeek 非常好的降低了算力需求,开源了很多低成本训练模型的工程方法。车企在训练 foundation model 的时候,可以从中复用一些做法。

但大语言模型的推理成本快速下降,完全推导不出智驾的车端推理算力快速下降——这件事,截至目前,从未发生。

我前几天也看过一个券商找所谓智驾专家做的报告,说从 DeepSeek 看,城市 NOA 的后续算力需求有望降至 50 - 60 TOPS,我觉得这个结论非常狂野。

通过蒸馏的方法把大模型的能力部署到一个小模型上,再把小模型放到车上,这小模型的算力需求说不定就比过去低了,说不定从 500 TOPS 降低到 50 TOPS 了。

——这是一些粗浅的推演。

实际的情况却是——

1. 汽车由于能耗、散热和成本的限制,从第一天起对算力的约束就非常苛刻。

没有 DeepSeek 前,整个智驾行业致力于基于小算力平台雕花的工程努力也从未停止。

而且这里产生了非常多的重大成果。比如 Momrnta 的单 Orin 平台,在我看来算法水平是绝对的第一梯队,绝对不输任意双或多 Orin 平台的智驾。

我们甚至产生了一些矫枉过正的错误努力,比如过于低的算力平台上,不用 Transformer 用 CNN 做出来的 BEV,外加一些传感器布置的限制,城市 NOA 是做出来了,但无论安全还是舒适,和头部相去甚远。

——DeepSeek 冲击美国人的可不只是「低成本做出来了」,而「低成本做出来了,但性能和 OpenAI 一样强!」

总之,智驾芯片行业不是 OpenAI,原本就没有算力泡沫,只有算力不够了算力又不够了一轮一轮背刺老用户。

2. 智驾,是一个把两吨重的东西加速到最高 140 km/h 的模型,这个东西对于安全、实时(为什么智驾做到后面要深入底层软件,要关注几十毫秒的延迟?)的要求,和 LLM 有根本的不同。

同时智驾作为一个和现实世界不断交互的模型,你必须要安全、舒适、遵守交规的基础上,完全融入交通流中去。

这真的很难,因为有时候融入交通流就意味着违反交规,但你前面又说要遵守交规。

铺陈这么多是想说,其实智驾领域在工程上没有 LLM 那么快。试错没那边容易,人才没那边多。

就拿芯片来说,今年要上的很多智驾芯片的卖点之一是「增加了对 Transformer 的支持」,Transformer 是个什么架构啊,这是一个 2017 年发布的架构。

别笑话我们,特斯拉 144 TOPS 的自研芯片都是 2018 年才发布上车的。

所谓一些 50 TOPS、80 TOPS、100 TOPS 的智驾芯片,它不是能不能跑大模型蒸馏出来的小模型的问题,它是支不支持 Transformer 都是个问题。

即使你做出来了,还是要上台先和 Momenta 打个擂。你打不过 Momenta,大家做的都不是一个东西,你搁那说啥呢?

特斯拉是跑得很快的,之前财报里的只言片语能看出来他们可能就是云端大模型蒸馏车端小模型的路线。

可是最近一次财报会议分析师问 AI 3——这是 144 TOPS 的芯片,稠密算力哦。

特斯拉 CFO 还在讲,大意是说我们从未放弃对 AI 3 的支持,这个时候 Elon 打断了说,坦率来讲,我们得给 AI 3 用户做升级,这个事情相当复杂痛苦,我都有点儿庆幸老用户买 FSD 的不多了。。。(这儿 Elon 是对的,你有把握兑现但不是现在,你可以继续画饼,你确信这饼没面做,应该直接答复这饼没戏而不是继续画。)

很多时候,跨领域分析和思考问题能更好的解决复杂问题,甚至很多颠覆式创新也得益于此。

但其实深入大语言模型和智驾两个相当不同的领域,我的结论相反:未来三年,智驾的推理算力需求会不降反升。

我们还没多模态呐。。。泪
看起来楠总身边做智驾的朋友没有给...看起来楠总身边做智驾的朋友没有给...