理想E2E模型的3次涌现:●2...

  • Blood旌旗
  • 2024-12-01 09:17:30
理想E2E模型的3次涌现:

●2.4.2

100万clips模型的理想E2E只能说是个“验证版”,能过环岛和调头,但是下限比较低

然而200万clips的242模型则有了大幅度提升,各方面都优于人工代码的全国无图版本,成功看到“兜住下限”的希望

242在后续很长一段时间,都是各方面均衡的「标杆模型」

●5.8.2

300-400万clips期间,理想遇到了跟特斯拉V12.4差不多的“沟壑期”————模型能力并没有跟随数据量上升,而是出现较大的波动反复

这中间的十几个鸟蛋内测模型,各有各的好,各有各的坏,但是并没有一个“去其精华,取其糟粕”的版本出现

直到5.8.2

582模型较好地提升了整体上限,而且集中解决了一大批bug问题,同时还配合软件功能版本,做到了「高速、城区一体无图化」

是242之后的又一经典模型,也成为了这一次全量推送「车位到车位」的内置模型

●6.12.10

这是昨天晚上才推送的模型,跟582中间隔了3个模型(500万一个,600万两个)

600万开头的两个模型并不能让我们鸟蛋用户满意,因为波动和反复还是比较明显的

但是第三个模型6.12.10,我今天开了120公里左右,安全性提升非常明显

尤其是面对左右两侧人类车辆野蛮cut in,6.12.10可以迅速向左或者向右打方向,减速避让,这个带来的安全性提升可太高了

还遇到过向右变道的时候,有一辆沙雕车超速向左跟我们争抢中间车道,6.12.10迅速回左车道避让

说人话就是——“600万第三个模型躲避傻叼人类司机的能力大幅提升”

●总结

从这三次涌现的经验来看,马斯克说的果然没错,scaling law的确成立,E2E数据量越大,最终的效果是越好的

不过在这中间,无论是特斯拉还是理想,都出现了一些波动,比如特斯拉的12.4,理想300-400万的一堆模型

不过当数据量提升到一定地步的时候,比如500万 600万,再加上对于数据配比的经验优化,又能够迈过这些沟坎,获得模型能力的大幅度提升

而且从本人理想鸟蛋测试的经验来看————随着数据集规模的扩增,模型稳定的速度正在大幅度提高

300-400万花了一个多月都没稳定下来,500万以后基本上一个星期就稳定提升

“经典模型”间隔越来越短,2.4.2和5.8.2隔了好几个月,5.8.2和6.12.10就差了两三个星期

这种提升速度的爆发,才是我们对这一轮ai大模型最根本的信心
理想E2E模型的3次涌现:●2...