特斯拉 FSD/Autopilot 在和国产智驾方案赛跑的同时,一种新的卷法出现了。
爆料人 @greentheonly 近期注意到,特斯拉在 2025.20 软件版本更新当中,引进了有关于虚幻引擎的二进制文件。根据这位博主的说法,目前基于虚幻引擎的可视化系统已经能够在搭载 AMD 芯片的 Model X 和 Model S 上激活,3D 模型支持缩放、滑动等交互,作用就和国产自主品牌的智能座舱的 3D 模型桌面一样,可以直接交互,也可以更直观看到车身状态。
而 @TeslaNewswire 透露,在未来,特斯拉还会将这套虚幻引擎引入车机系统,用来增强 AutoPilot 或 FSD 的视觉效果。配合车辆端的 SR 画面(车辆收集周围信息后呈现的实时画面),会呈现更精细、逼真的环境画面。
这位博主还专门做了一系列的前瞻图片,看起来就跟公路赛车游戏没什么两样。
至于特斯拉是不是会真的用虚幻引擎做出比肩端游画面的车端 SR 预览,目前并不好说,甚至很多人对于车端 SR 的看法都是 " 可有可无 "。车企用虚幻引擎整花活也不是一天两天的事情了,到目前为止,除了做出一套比较精致高级的 3D 模型桌面和复杂的交互视效之外,实用性的提升可谓聊胜于无。
不过,既然是特斯拉入局,电车通还是期待这家车企能用虚幻引擎做出一些好的特性,给行业一点启发的。
真要论个先来后到,特斯拉并不是第一家往座舱系统里塞虚幻引擎的。甚至可以说,基于物理引擎的 3D HMI,在特斯拉之前就已经成为一种汽车智能座舱的主流。
2021 年 11 月,华人运通(高合汽车)就宣布了和 Epic Games 达成公司层级战略合作,这两家公司的合作成果,就放在了 2022 年发布的高合 HiPhi Z 上,借助 UNREAL 虚幻引擎成熟的可视化材质系统和完善的工具链,打造了国内首个 " 真 · 3D 数字座舱 "。
当然,高合汽车并不是唯一看上虚幻引擎的汽车品牌。
全球首个基于 UNREAL 虚幻引擎打造的座舱系统出自莲花跑车(原路特斯)之手,名叫 LOTUS HYPER OS,由 ELECTRE 首发。不光是精致的 3D 建模场景,莲花跑车整套系统 UI 都基于虚幻引擎打造,将高级又逼真的 PBR 材质系统和 HDR 环境光照明技术,应用到绝大部分的交互界面里。你以为这是厂商的新车 CG 动画,实际上就是在座舱系统里实时渲染出来的 3D 场景。
小到像小鹏语音助手的动画形象,也是通过 3D 模型来呈现的。
而为了支撑这套座舱系统的性能开销,莲花跑车在 ELECTRE 里装了两颗高通骁龙 8155,这配置在当时堪称豪华。吉利银河 E8 以及名爵 Cyberster,都不约而同地结合虚幻引擎做到了 3D 实时渲染,用高合的话来说就是:" 通过基于物理的实时渲染技术,模拟人类对于认知到重建的过程,构建了一个可自由交互的 3D 空间。"
另奔驰的 MB.OS 也借助 Unity 3D 引擎来了一波视觉升级,地图界面放大之后,就可以看到一栋栋精细的大楼建模,楼面还带有高级的金属反光。
根据奔驰官方的说法,设计师利用一款名为 "Unity Industrial Collection" 的复杂 3D 视觉软件包,对数字座舱内的仪表盘、信息娱乐、导航等元素进行 3D 化。另外,小米、蔚来全系等智能电动车厂,都通过 Unity 3D 引擎建立了自己的 3D 桌面体系。
为什么车企都爱用 3D 物理引擎做车机视觉?电车通认为有两个原因:
第一,3D 物理引擎的立体场景交互更新颖,强调科技感和更高级的图形渲染能力,催生出一套脱离 2D 层面的交互体系。同样都是打开车后的电动尾门,2D 菜单交互相当于 " 功能交互 ",而 3D 桌面则能够变成创新的 " 空间交互 " 或场景体验。
对于 SR 界面、导航界面等,3D 交互相比传统的 2D 界面,在 " 空间感 " 上有更直观的体现,比如摄像头、激光雷达实时传回的数据,可以通过 3D 界面展示。
3D 智能座舱已从 " 加分项 " 变为 " 必选项 ",毕马威预测,2026 年中国智能座舱市场规模将达 2127 亿元,渗透率超 82%,车企通过 3D 引擎技术打造差异化的体验。
第二,车企与物理引擎供应商合作,可以提高 3D 智能座舱的开发效率。以虚幻引擎为例,Epic Games 与高通联合虚化引擎在骁龙平台的性能;Unity 与芯驰、芯擎等本土芯片厂商联合开发车规级解决方案,提升了硬件利用效率,加速了技术落地。
总体来说,车企用 3D 物理引擎,主要还是用于座舱娱乐跟交互体验那一块,特斯拉引入虚幻引擎或许有同样的目的,但方向上略有不同。
在电动智能车厂里,算是对 3D 视觉不太上心的一家,3D 元素在车机大屏当中占比不多。而根据上面两位博主的爆料,特斯拉更倾向用物理引擎改善 ADAS 下的 SR 画面,而非交互界面的升级,从他们提供的图片素材当中就能得知。
说实话,电车通认为 3D 视觉对车机交互效率的提升聊胜于无,就拿 3D 场景桌面来说,车模和场景占据了车机大部分显示面积,实际使用并没有变得更便利,充其量就是人和机器之间的交互更有 " 亲和感 "。当然了,这只是电车通的主观看法,车企也提供了另外的桌面模式。
先说车端 SR 界面,行业的普遍做法都是用单色 3D 场景来显示,车辆摄像头、激光雷达接收到的环境信息,通过 AI 对周边物品进行识别(小车、货车、行人、电动车等),并通过 3D 场景展现出来。为什么要用单色,电车通认为有两个原因:
第一,SR 界面是汽车对周边环境识别之后的结果呈现,它存在的目的是方便驾驶员了解到周边的环境,以及车辆识别到了什么。单色场景的好处就是去掉了各种颜色干扰,仅留下最基本的建模,信息传递效率更高。
用一些传统车主的话来说就是,花里胡哨的屏幕元素,还有可能影响到他们的正常驾驶。
第二,如此复杂的 3D 场景还原,肯定少不了庞大的性能开销。前面说过,为了支撑 LOTUS HYPER OS 的流畅运行,莲花汽车在 ELECTRE 上搭载了两颗高通骁龙 8155,越是逼真的场景模拟,对座舱芯片需求越大,能够理解特斯拉率先在 Model S、Model X 等配备 AMD 芯片的车型上预埋虚幻引擎。
还有一个问题是,受限于激光雷达、摄像头以及处理性能等因素,感知系统实时反馈回来的环境信息容易出现偏差。
最简单的例子就是,开着 ADAS 的时候,你会看到周边的车辆、行人等元素都有一定程度的抽搐,有的时候还会凭空出现一些现实世界没有的元素,这就是实时感知和实时渲染目前存在限制。这个问题,在纯视觉感知的特斯拉车型身上,会更加明显。
想象一下,如果你在一个特别逼真的车端 SR 界面当中,看着身边的车辆和行人在抽搐,或者是本来没有人的地方,系统却告诉你有人,听起来多少都有些不寒而栗。即便座舱芯片可以轻松支撑 3D 场景实时渲染,但感知端的信息,还需要算法进一步优化和限制,来提高显示端的精度。
再说了,驾驶员可以透过玻璃看到前方的真实环境,一般用不到如此逼真的 3D 场景还原,目前的单色 3D 场景,已经是现阶段车端 SR 界面比较理想的形态了。
特斯拉引入虚幻引擎的目的不一定是为了逼真的 ADAS SR 界面,在电车通看来,高级的 PBR 材质和实时模糊界面渲染,也需要借助物理引擎。
这些也是基于个人主观的猜测,说不定特斯拉真的有能力解决感知和车端 SR 之间的矛盾,模糊现实与数字世界的边界,还能将体验做得比较好,给行业形成示范性作用。
只是从用户层面出发,逼真的 3D 场景渲染带来的实用价值还比较有限,或者说这种行业还没发掘出一种刚需场景,行驶过程中,车辆需要精确感知并判断环境,但用户不需要通过车机大屏去了解,3D 元素更多是一种秀肌肉带来的情绪价值。
这并不意味着 3D 物理引擎只是一种伪需求,它的确在智能汽车当中充当着很重要的角色,Unity 3D、虚幻引擎通过和芯片供应商合作,深度介入车载芯片的图形优化,形成了智能汽车时代的生态主导,变成车企智能化转型的核心力量。即便是对 3D 视觉不太上心的特斯拉,对 3D 车模、3D 智驾场景都有一定的涉足。
而在更远的未来,车企还会通过 3D 物理引擎和游戏引擎构建的自动驾驶仿真平台里,实现真实驾驶场景的快速训练和模拟,电车通也曾对此进行过解读和报道。
物理引擎在智能汽车应该怎么发展?或许就像智能手机操作系统强调人机交互那样,物理引擎能够更好地模拟出物件的运动轨迹,方便车企做出更有 " 呼吸感 " 的菜单交互效果,实用性应该会比媲美 3A 大作的车端 SR 更高。
但物理引擎在车企手中,怎么做,还得看车企怎么想。