小鹏智驾芯片二季度量产上车

袁遗说科技 2025-04-16 07:06:41

小鹏图灵AI芯片芯片不仅用在汽车,未来还将搭载在AI机器人和飞行汽车上。

小鹏汽车董事长何小鹏近日透露,小鹏汽车全栈自研的图灵AI芯片即将提前到第二季度量产上车,首发搭载于小鹏的全新车型。

据悉,小鹏图灵AI芯片芯片不仅用在汽车,未来还将搭载在AI机器人和飞行汽车上。

根据此前的消息,小鹏汽车于去年8月宣布自研图灵芯片流片成功,该芯片集成40核处理器,可本地运行30B参数的AI大模型,远超当前主流自动驾驶芯片的处理能力。

相比英伟达Orin X的254 TOPS算力,小鹏图灵芯片要高出不少,只比还未量产的英伟达Thor的中配版低一点。但通过深度优化,图灵芯片算力利用率可达100%,显著降低冗余成本。

此外,图灵芯片在架构上针对神经网络进行专门优化,集成双NPU和独立安全岛设计,既保障了复杂环境下的感知能力,又强化了功能安全冗余。这种软硬一体的设计思路,打破了传统车企依赖通用芯片的局限性,为端到端自动驾驶技术的落地提供了硬件基础。

“脱钩”英伟达,车企自研智驾芯片

小鹏此次量产图灵芯片,最受关注的是其与英伟达的“脱钩”策略。知情人士透露,小鹏未来全新车型将全面搭载自研芯片,不再计划采用英伟达尚未量产的Thor芯片。这一决策背后,既有成本考量,也反映出车企对核心技术自主可控的迫切需求。

英伟达最新一代车载AI芯片Thor,是一款专门为端到端、AI大模型等技术基座设计的芯片硬件平台。最初的算力设计达2000 Tops,原计划于2024年中量产。但业内消息称,英伟达Thor的量产遇到了挑战,目前向市场供应的基本是750Tops版本,并且“硬件、软件都还有缺陷。”甚至现在英伟达已经不承诺算力了,“可能实际上车实际和发布的数字会有很大差别。”

毫无疑问,此前宣布采用Thor芯片的车企,如比亚迪、极氪、理想、小鹏等,可能都会受到一定影响。在当下竞争如此激烈的汽车市场,因为芯片产品的节奏不顺而拖延新车发布,车企很可能会错过一些关键的产品占领市场时间窗口。

相比之下,自研芯片就可以避免这类问题。因此,我们可以看到小鹏、蔚来、理想等车企都在积极自研智驾芯片,目前蔚来5nm的自动驾驶芯片“神玑NX9031”已经随着蔚来78.8万元的豪车ET9交付而进入量产状态;理想自研的智驾芯片也接近流片状态,如果芯片节奏顺利,理想可能为自研芯片倾斜更多车辆资源。

融合大模型是智驾的下一个方向

融合多模态大模型,是国内车企探索智驾的下一个方向。

早在2024年下半年,小鹏汽车已开始面向L4级别的自动驾驶研发全新的“AI大脑”,即小鹏世界基座模型。小鹏研发团队利用优质自动驾驶训练数据,先后开发了多个尺寸的基座模型,目前已经着手推进72B(72 Billion,也即720亿)超大规模参数世界基座模型的研发,参数量是主流 VLA 模型 的35 倍左右。

小鹏世界基座模型的一大优势是具备链式推理能力(CoT),在充分理解现实世界的基础上,能够像人类一样进行复杂的常识推理,并将推理结果转化为行动,例如输出方向盘、刹车等控制信号,实现和物理世界的交互。

为了开发小鹏世界基座模型,小鹏汽车打造了一座“云端模型工厂”,工厂“车间”涵盖基座模型预训练和后训练(强化学习训练)、模型蒸馏、车端模型预训练到部署上车的完整生产链路。

小鹏汽车从2024年开始搭建AI基础设施(AI Infra),当前已建立起万卡规模的智能算力集群,是目前国内汽车行业最大的自动驾驶算力集群,目前算力储备达到10EFLOPS,集群利用率常年高达90%以上,高峰时期的运行效率甚至达到98%。

小鹏世界基座模型负责人刘博士介绍,多模态模型训练的主要瓶颈不仅是 GPU,也需要解决数据访问的效率问题。

小鹏汽车自主开发了底层的数据基础设施(Data Infra),使数据上传规模提升22倍、训练中的数据带宽提升15倍;通过联合优化 GPU / CPU 以及网络 I/O,最终使模型训练速度提升了 5 倍。目前,小鹏汽车用于训练基座模型的视频数据量高达2000万clips,这一数字今年将增加到2亿clips。

从设计之初,小鹏汽车就将基模定位为一个可以泛化到多种具身终端的基座模型。李力耘表示:“小鹏世界基座模型是小鹏自动驾驶真正走向L3、L4的基础,也会是未来小鹏所有物理AI终端的通用模型”。后续,小鹏世界基座模型将全面赋能小鹏AI体系全图谱,应用到小鹏汽车的AI汽车、AI机器人、飞行汽车上。

*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。

想要获取半导体产业的前沿洞见、技术速递、趋势解析,关注我们!

0 阅读:8

袁遗说科技

简介:感谢大家的关注