首页 > 最新动态 > 秋凤空间 | 2026CES,英伟达要做整个汽车产业的AI上游
最新动态
秋凤空间 | 2026CES,英伟达要做整个汽车产业的AI上游
2026-01-102

作者 | 王秋凤





1月6日,比上届稍显冷清的CES在拉斯维加斯开幕。大家一直把CES当做科技风向标来看。自从五年前与汽车关联以来,中国这边的汽车圈,也开始大规模关注CES。而本届CES,电子内容已经退到舞台角落,算力、开发生态、以及相应的硬件,占据了核心位置,似乎应该定义为“AI展”。英特尔、AMD与英伟达,成为扛旗者。当然,英伟达CEO黄仁勋的演讲和展示,成为核心中的核心,不可不谈。



算力系统打破摩尔定律


其90分钟的演讲,信息量太大,我们裁剪一下,围绕有关智驾的内容作为重点,而AI则作为背景。


即便如此安排,依然遮盖不了老黄飚出各种振聋发聩的AI大词儿。和以前每次发一款GPU不同,这一次发布的是一整套计算架构,命名为Vera Rubin(薇拉·鲁宾),致敬同名天文学家,后者发现了暗物质。就知道老黄也是个很骄傲的人,他暗示新计算架构在AI产业当前的位置,就好比暗物质在宇宙学当中的地位。



这一架构由6枚芯片构成,全部重新设计。包含控制数据搬运的CPU、主导算力的GPU、高带宽神经网络、高速网络接口芯片、数据处理器和一个以太网关。这里面将CPU变成GPU的数据搬运工,以及用DPU创建超高速缓存,增加GPU的动态存储空间,以实现超长Token的推理能力。这一解决方案的确是前所未有的,当然也是非常奢侈的。



老黄表示Vera Rubin的性能击破了摩尔定律——相比上一代Blackwell,算力增5倍、推理Token成本降10倍,但晶体管数量只增加1.7倍。如果这些都是真的,英伟达在算力硬件上的统治力进一步强化。


大家还没拿到B200,老黄就宣布Vera Rubin将在2026下半年出货。客户需求追不上硬件迭代,英伟达做到了。


从后台到前台


不仅是计算架构,老黄推出的AI模型,模拟工具和实现路径,才是对汽车产业的暴击。英伟达长期以来一直是芯片供应商,最多加上CUDA开发生态,所以英伟达一直信奉开源模式。现在工具链一出,开源就有点动摇。因为只有买了英伟达硬件全家桶,才能得到他承诺的性能。



依托硬件优势构成封闭生态,剑指汽车应用,这是前所未有的。2025年英伟达车载芯片在中国市占率下滑,但仍超过50%,对英伟达来说始终是小业务。现在这么大张旗鼓地动用主力研发资源,就意味着英伟达要占据汽车产业的AI上游:大模型训推中心的硬件底座、大模型训推的工具和验证,都是商业上的膏腴之地。留给方案供应商的,就剩下转移模型了,而且这一块英伟达好像也在涉足。


如果英伟达这一套大模型训推模式的验证工程(可以认为是工程Demo),即与奔驰合作的CLA搭载方案成功(表现出超出同跻的道路场景决策能力),对行业的影响力将瞬间达致顶峰。对汽车行业而言,英伟达第一次从后台走向前台。对英伟达而言,这是从芯片供应商迈向“物理智能基础设施提供商”的关键一步。如果车企和云服务商都绑定了英伟达的“全家桶”,其业内地位更难撼动。


这一切会真实发生吗?



“物理AI”克服幻觉


先看看老黄鼓吹的“物理AI”的概念,这似乎和此前的具身智能有所重复。两者的区别不仅在于,物理AI不必拥有“实体”;还在于,物理AI能够理解“物体恒存性”。说白了,物理AI不仅如具身智能那样,与物理世界互动,还能理解物理世界,比如理解重力和摩擦力、惯性。总之,一切都符合牛顿力学,与人类的日常生活经验相符。以前人类很习惯的物理世界,AI无法理解。比如很简单的,手指不会穿越坚固物体表面;看向别处,再移回视线,先前的物体仍在;重卡比同速轿车,需要更长的刹车距离等等。现在老黄承诺AI可以理解以上现象。


大模型具备物理AI能力有什么用?AI最大的问题,就是幻觉。LLM的幻觉,最多胡言乱语或者编造;而自动驾驶的幻觉,则可能导致严重后果。物理AI其实是一种验证能力,如果大模型具备物理AI能力,生成一个决策之前,它自己就能思考,什么才是合理的路径;在决策生成付诸执行前,它也能验证,这个决策的正确性和安全性。


这其实就是Vera Rubin新具备的、强大的长Token推理能力,一切都讲得通了。



快思考能力和可解释性


至于大模型训推,黄仁勋虚拟了三个计算机,一个用于训练,一个用于推理(思考),第三个用于仿真(验证)。在虚拟世界中对真是物理世界进行验证,就是英伟达大模型工具的妙处。


说到底,英伟达的大模型仍然执行VLA链,但VLA的痛点就在于复杂子情景下思考过慢。而Vera Rubin专门用于推理的、DPU和CPU协理GPU的机制,理论上解决了思考速度的问题。


当物理AI与核心工具都有了之后,老黄恰到好处地推出Alpamayo,并将其称为“全球首个具备思考与推理能力的自动驾驶AI”。如果你认同前面疯狂硬件组合具备的能力,Alpamayo就顺理成章。


Alpamayo与众不同的另一点,也准确击中了智驾另一个痛点:可解释性。Alpamayo不但推理,还会把思考过程、即将采取的行动(行车轨迹),以及采取该行动的理由,都用人类能识别的语言记录下来。


长期以来,“端到端”训推过程,被称为“黑盒子”(有人称之为“隐学习”),就是因为人类看不到、看不懂其思考过程。这样人就对AI思考的结果不放心。目前普遍采取施加一系列硬规则来给端到端智驾做兜底。


如果人类第一次看到,从AI的视角看来,哪些长尾场景是高度相似的,以至于AI无须重复训练人类就能马上提升真实训练数据的质量,提升训练效能,从而减少对真实高质量数据需求。此举将促进自动驾驶系统更快迭代和成熟。沿着原路径升级为L3,也就不再是空话。



基于新硬件底座和工具链,英伟达的这一套训推逻辑,如果如其所说的那般好用,那么给竞争者(包含所有的智驾供应商和自研智驾的车企)带来的震撼是无以复加的。值得一提的是,这并未改变transformer作为标准算子的注意力机制。也就是“老路走出了新速度”。


如此一来,对于汽车产业而言,英伟达就从芯片供应商变身云硬件+训推标准教师模型+芯片+算法工具链的提供者。这对于致力于智驾供应链整合的车企来说,不是好消息。智驾供应商能做的,岂不是只剩下直接部署于车端的“学生小模型”。其商业价值将大打折扣。看起来,大家都在做争夺智驾供应链的“整合权”。


有人马上@马斯克,而后者明显不以为然,“这正是特斯拉在做的。他们会发现,达到99%很容易,但解决分布的长尾问题超级难。”


问题不在于谁的模型更有效率,而在于英伟达推出一种很难抵挡的训推模式和算法开发生态。对行业而言,它降低了开发高阶智驾(尤其是解决长尾难题)的门槛,可能让车企在核心算法上加深对英伟达的依赖。如果叠加了芯片依赖,患上“英伟达依赖症”,当然不妙。


可见,英伟达非常努力地从Token消费空转的坑里爬上来,其解决的办法,就是将其硬件能力指向真正有价值的应用产业,比如汽车和机器人等。下游的变现预期,决定了英伟达这次硬件“大放卫星”的商业前景。不过,在智驾的赛道上,算力只能作为门票,对物理世界理解的深刻程度,最终决定了方案供应商的竞争力。






 E N D   -

作者简介:

王秋凤,先后就职于《经济观察报》、《第一财经日报》等主流平面媒体,搜狐汽车新闻中心、腾讯汽车等主流互联网平台,前北汽极狐汽车总裁,现任汽车之家总裁,中国汽车记协常务理事。


点我访问原文链接