4 月 29 日,小鹏汽车发布推理加速工具 X-Cache 技术报告。这款专为小鹏自家世界模型 X-World 量身打造的加速引擎,无需额外训练、即插即用,可将 X-World 的推理速度提升约 2.7 倍,生成延迟从 3.6 秒压缩至 1.37 秒,重复计算减少近七成。
简单说,小鹏给自家的 "AI 虚拟驾校 " 嵌入了一套跳过重复计算的控制逻辑,推理速度直接提升 2.7 倍。

大规模仿真的代价是算力。在连续的仿真画面生成中,相邻两帧内容高度相似,如车辆位置微移、光影细微变化等,大量中间计算结果其实可以复用,却被系统一遍遍重新计算,白白消耗算力。
X-Cache 的做法是把这些中间结果缓存下来,下一帧生成时直接调用,而非从头再算;缓存内容随生成实时刷新,确保画面连贯不失真。相比扩大模型规模或增加硬件算力,X-Cache 的额外开销有限——它是一段控制逻辑,缓存内容随生成实时刷新,整体开销与模型参数量相比可控。

第二代 VLA 已于 3 月 19 日启动首批推送,覆盖 P7 Ultra、G7 Ultra、X9 Ultra;4 月起扩展至 P7+、G9、G6 等主力车型,并计划于今年内向 MAX 车主推送蒸馏版第二代 VLA。
北京车展期间,小鹏发布了第二代 VLA 首份用户智驾报告。数据显示,Ultra 车主提车第一周每天开启 NGP 的比例达 98.52%,百公里接管次数下降 25.9%,Ultra 车型订单环比增长 118%。4 月 1 日至 19 日,小鹏整体订单环比增 74.4%、同比增 56.8%,用户下单决策时间缩短 44.7%。
来源:星河商业观察