关于ZAKER 合作
智东西 2小时前

我在硅谷闹市区,体验黄仁勋同款 L2++ 自动驾驶

智东西

作者 | ZeR0

编辑 | 漠影

智东西3月24日报道,上周英伟达GTC期间,智东西在圣何塞深度体验乘坐了一辆没有激光雷达、没有高精地图的L2++级自动驾驶汽车,跑了11英里,将近50分钟,全程没有被驾驶位上的人类安全员接管一次。

试乘车

此次体验的,便是前不久英伟达创始人兼CEO黄仁勋、英伟达全球副总裁吴新宙在旧金山体验的同款辅助驾驶汽车方案——汽车是梅赛德斯-奔驰CLA,搭载基于NVIDIA DRIVE Hyperion硬件平台的Alpamayo端到端辅助驾驶大模型。

黄仁勋和吴新宙试乘辅助驾驶汽车

借助英伟达深度学习模型,Hyperion架构可通过扩展功能实现增强型L2级辅助驾驶功能,包括在复杂城市环境中实现点到点城市领航辅助,使汽车自主完成整个行驶过程。

我的试乘路线是从圣何塞Signia酒店附近上车,途径日本城、Willow Glen社区,最终绕回出发点。这条路线经专门设计,尽可能多地展示不同路况,涉及信控路口、四路停车标志、施工路段等复杂场景。

在圣何塞街道上兜风近50分钟,我的总体感觉归纳为一个字——顺。

试乘过程中,汽车根据实际路况、红绿灯做出车道选择、转弯、跟随、停车等行为,并在识别行人后主动让行。途中遇到的几个插曲,都被辅助驾驶系统应对自如。

刚启程没多久,一辆车从我们前方插进来,堵了半条车道,而前方是双黄线,不能压线超车。这时车载系统没有强行绕行,也没有乱打方向,而是减速等待,做出了像人类司机一样正确的判断。

遇到信号灯没工作、减速带等情况,汽车会谨慎地主动减速,通过后恢复正常速度。

等开到日本城附近时,前方有一位老太太推着一堆箱子从路左侧向右慢慢横穿。

还有当我们在一个路口准备右转时,一位行人边过马路边聚精会神打电话。

遇到这两种场景,汽车都非常自然地减速停车,礼让行人。

这些"顺"的背后,藏着一些很有意思的技术细节。

一、无激光雷达、无高精地图,一颗芯片支撑全部算力

这辆奔驰CLA搭载的英伟达的L2++辅助驾驶方案没有使用激光雷达,主要采用摄像头和毫米波雷达等传感器,也没有高精地图,只使用来自导航模块的普通地图。

因此,这套方案非常经济高效,几乎可应用于各种汽车,也让软件具备极高的跨地域可扩展性。

在我们乘坐的汽车中,NVIDIA DRIVE Hyperion平台包括一个DRIVE AGX Orin SoC芯片、10颗摄像头、5颗毫米波雷达和12颗超声波传感器。

10个摄像头包括2颗前向摄像头、2颗侧向摄像头、2颗侧后向摄像头和4颗鱼眼摄像头。这些摄像头能够阅读交通标志和车道标志,提供周遭广泛视角和能见度,实现精确控制、安心驾驶。

5颗毫米波雷达包括1颗中程雷达和4颗角雷达,能探测其他行人、车辆的距离和速度,监测附近的交通和盲点。

超声波传感器可探测附近的障碍物,以支持平稳、自信的低速操作。

所有计算任务都运行在单颗Orin芯片上。这一套硬件配置,支撑起了整个L2++级自动驾驶功能。英伟达正与更多OEM合作伙伴推进量产落地,计划今年覆盖美国全境,明年覆盖欧洲、日本和韩国。

DRIVE Hyperion硬件架构可扩展到L4级自动驾驶。

这次试乘,我体验的是DRIVE Hyperion 8架构。而比亚迪、吉利、日产等已经在开发基于DRIVE Hyperion 10架构的新一代L4自动驾驶汽车项目。

五十铃和TIER IV采用DRIVE Hyperion里的DRIVE AGX Thor SoC芯片,合作开发L4级自动驾驶巴士。Uber、Bolt、Grab、Lyft等移动出行服务商均在基于DRIVE Hyperion扩展自动驾驶出租车规模。

梅赛德斯-奔驰也在开发一款基于新S级的自动驾驶出租车,将采用DRIVE Hyperion和全栈AV L4软件。

NVIDIA GTC大会上展出的NVIDIA DRIVE AGX Thor开发者套件

另一个值得关注的点是,不用高精地图会带来一大挑战:如何理解信号灯与车道的关联关系?

一个十字路口有多条车道、多个信号灯,怎么判断我的车道对应哪个灯?这在有高精地图的系统里,是预先标注好的。

而英伟达通过在软件栈中进行大量创新,使汽车在行驶过程中实时完成判断,在线创建全球高精地图,最终实时创建所有车道线、连接方式和行驶方案。

做到这一点,离不开先进的模型推理能力。

二、推理模型:给辅助驾驶决策注入像人一样的思维

英伟达认为,推理能力是辅助驾驶的下一个前沿。

传统辅助驾驶架构将感知与规划分离开来,这在面临突发或异常状况时,往往会限制其系统扩展性。解决这些长尾极端事件,需要具备安全推理因果关系能力的模型。

对此,英伟达开发Alpamayo生态系统,以加速安全、基于推理的自动驾驶汽车开发。

Alpamayo系列包括具备决策推理能力的AI模型、用于测试决策的闭环仿真工具AlpaSim与物理AI自动驾驶数据集。

其中, Alpamayo 1是该系列的首个版本,是一款开放VLA(视觉-语言-动作)推理模型,专为应对辅助驾驶长尾场景挑战而设计,基于100亿参数架构,集成了视觉感知、语言理解和动作生成能力,通过视频输入生成行驶轨迹,并通过推理来解释自身的决策。

Alpamayo辅助驾驶堆栈的驾驶方式非常接近人类。借助这一模型,汽车会实时感知周边环境,在后台持续推理,能够更准确地感知环境、解读环境和预测风险,推演罕见或全新场景,灵活应对复杂多变的路况,并能解释它在决定时的推理思路。

比如前方双排停车的一辆车开始倒车,车载系统不会试图从旁边硬挤过去,而是在识别倒前方汽车倒车灯亮起、汽车向后移动时,判断对方意图是停车,于是等它停好后再继续前行;如果前方汽车停着不动,车载系统就会轻轻绕过去通行。

开发者既可将Alpamayo 1调整为更精简的运行时模型,部署于车端;又可将它作为辅助驾驶的基础架构,构建基于推理的评估器和自动标注系统等开发工具。

英伟达在GTC 2026大会上最新发布的Alpamayo 1.5,正是基于Alpamayo 1模型打造。Alpamayo 1.5模型可交互、可操控,能够将行驶视频、自车运动历史、导航引导和自然语言指令作为输入,输出带有推理链路的行驶轨迹,能够清晰展示每项决策背后的逻辑。

开发者通过导航与文本指令,就能调控车辆驾驶行为并设定行驶约束条件。

AlpaSim是一款面向高保真辅助驾驶开发、完全开源的端到端闭环仿真框架,提供逼真的传感器建模、可配置交通动态,以及可扩展的闭环测试环境,支持快速验证与策略优化。

物理AI开放数据集包含来自全球2500多个城市的30多万个片段,有超过1700小时的驾驶数据,覆盖广泛的地理区域和环境条件,涵盖推动推理架构发展所需的罕见且复杂的真实世界极端场景。

三、全栈自动驾驶软件平台:多模态、端到端、主动安全防护

对于辅助驾驶系统,英伟达与OEM合作伙伴共同定义架构、功能和特性。当然最终的整车形态、驾乘感受和外观设计由OEM负责。

NVIDIA DRIVE Hyperion和Alpamayo是NVIDIA DRIVE AV全栈式自动驾驶软件平台的一部分。

NVIDIA DRIVE AV软件采用双栈架构:

(1)多模态经典栈(包括感知/规划/控制):安全守护层,提供冗余和安全防护。

(2)端到端AI栈:处理复杂动态场景,提供长尾驾驶所需的上下文推理和决策能力。

经典栈的工作原理是感知世界中的所有物体,预测动态物体的未来行为,综合使用这些信息及行驶路线来决定应该遵循的正确安全路径。

端到端AI栈将传感器与导航路线作为输入,通过一个单一网络模型直接输出最终的行驶轨迹。

系统会综合这两条轨迹,从中选择最安全和舒适的轨迹。

两层之间随时准备好交接控制权:端到端模型主导开车,经典栈则犹如托底的安全卫士,在发现端到端模型做出不可接受的决策时,立刻接管,等情况解除后,再把控制权交还给端到端模型。

驾驶员随时可以接管方向盘,期间软件始终保持运行,并在人类与它协作时提供帮助。

为安全保驾护航的核心技术由NVIDIA Halos OS安全系统提供支撑。

Halos OS基于通过ASIL D级标准的DriveOS架构打造,其统一的三层安全架构整合了安全中间件与可量产部署的安全应用,包括符合NCAP 2026五星级标准的主动安全系统,通过紧急制动、规避转向和360度威胁检测,自动防止与汽车、行人或骑自行车者发生碰撞。

通常情况下,人类驾驶员的操作拥有更高优先级。如果原定路线是执行,驾驶员打错方向盘左转,汽车会按照驾驶员的操作来行驶。但如果因为驾驶员误操作导致要撞向另一辆车,主动安全功能就会立即介入,阻止事故发生。

这些安全设计是量产落地的关键,也是通往L4自动驾驶的基础。

四、三种方式采集数据,用高保真仿真增加数据多样性

在开发阶段,英伟达主要通过三种方式与OEM合作伙伴合作推进数据采集。

一是专用数据采集车队,装备传感器的汽车由人类驾驶,在全球采集数据。

二是开发测试车队,像我们乘坐的这辆一样,做测试和开发,有些一直在采集,有些只在发生有趣事件时才采集。

三是客户车队,用户购买了搭载NVIDIA DRIVE AV系统的量产车,车辆在发生有趣事件时会采集数据。

从配备DRIVE Hyperion的汽车收集的数据,可用于在云端训练和优化AI模型,在逼真的仿真环境中验证模型,然后将更新后的软件部署回汽车,从而持续改进自动驾驶系统。

为了大规模构建和验证软件,英伟达使用了很多不同的仿真技术。

首先是英伟达Omniverse平台,使用汽车采集的多传感器数据构建数字孪生世界。

英伟达使用NVIDIA Cosmos在离线状态下创建场景的许多不同变体,这对于创建大量数据用于训练和验证堆栈非常重要,尤其是关注到我们在现实世界中几乎看不到的边缘和罕见情况。

为了构建和验证一个非常安全、可靠的堆栈,这是必不可少的。

另一项关键仿真技术是NVIDIA Omniverse NuRec。

为了涵盖真实世界驾驶场景的多样性,推理型辅助驾驶汽车的测试与验证需要高保真的仿真环境。

NuRec是一套基于3D高斯泼溅技术的工具集,可通过接收摄像头输入,摄取真实世界数据,完成可交互仿真场景的重建与渲染,即重建其在现实世界中获得的数据。

它能够帮助辅助驾驶汽车开发者在不耗费大量时间和成本手动构建世界的情况下,对推理行为进行压力测试,并模拟极端事件。

因此,英伟达能利用其在道路上行驶的每一英里、无限的时间来验证每个新的软件版本,加速辅助驾驶技术的进化。

结语

在试乘前,我曾以为这会像很多自动驾驶demo一样,是在一个安全环境里沿着封闭路段开一圈。

但汽车开到了圣何塞的真实道路上,从车流密集的市中心开到热门景点、居民区周遭,遇到了推车的老人、插队占道的车、盯着手机走过的行人等真实的"意外"。

在这场近50分钟的驾驶中,它不需要激光雷达、不需要高精度地图,仅凭摄像头、毫米波雷达、超声波传感器、芯片和具备推理能力的模型,就担当了一位称职的数字司机。

随着汽车开始具备理解真实世界、推理并付诸行动的能力,更安全、智能的辅助驾驶功能将给未来出行方式带来更多轻松与愉悦。

智东西

作者 | ZeR0

编辑 | 漠影

智东西3月24日报道,上周英伟达GTC期间,智东西在圣何塞深度体验乘坐了一辆没有激光雷达、没有高精地图的L2++级自动驾驶汽车,跑了11英里,将近50分钟,全程没有被驾驶位上的人类安全员接管一次。

试乘车

此次体验的,便是前不久英伟达创始人兼CEO黄仁勋、英伟达全球副总裁吴新宙在旧金山体验的同款辅助驾驶汽车方案——汽车是梅赛德斯-奔驰CLA,搭载基于NVIDIA DRIVE Hyperion硬件平台的Alpamayo端到端辅助驾驶大模型。

黄仁勋和吴新宙试乘辅助驾驶汽车

借助英伟达深度学习模型,Hyperion架构可通过扩展功能实现增强型L2级辅助驾驶功能,包括在复杂城市环境中实现点到点城市领航辅助,使汽车自主完成整个行驶过程。

我的试乘路线是从圣何塞Signia酒店附近上车,途径日本城、Willow Glen社区,最终绕回出发点。这条路线经专门设计,尽可能多地展示不同路况,涉及信控路口、四路停车标志、施工路段等复杂场景。

在圣何塞街道上兜风近50分钟,我的总体感觉归纳为一个字——顺。

试乘过程中,汽车根据实际路况、红绿灯做出车道选择、转弯、跟随、停车等行为,并在识别行人后主动让行。途中遇到的几个插曲,都被辅助驾驶系统应对自如。

刚启程没多久,一辆车从我们前方插进来,堵了半条车道,而前方是双黄线,不能压线超车。这时车载系统没有强行绕行,也没有乱打方向,而是减速等待,做出了像人类司机一样正确的判断。

遇到信号灯没工作、减速带等情况,汽车会谨慎地主动减速,通过后恢复正常速度。

等开到日本城附近时,前方有一位老太太推着一堆箱子从路左侧向右慢慢横穿。

还有当我们在一个路口准备右转时,一位行人边过马路边聚精会神打电话。

遇到这两种场景,汽车都非常自然地减速停车,礼让行人。

这些"顺"的背后,藏着一些很有意思的技术细节。

一、无激光雷达、无高精地图,一颗芯片支撑全部算力

这辆奔驰CLA搭载的英伟达的L2++辅助驾驶方案没有使用激光雷达,主要采用摄像头和毫米波雷达等传感器,也没有高精地图,只使用来自导航模块的普通地图。

因此,这套方案非常经济高效,几乎可应用于各种汽车,也让软件具备极高的跨地域可扩展性。

在我们乘坐的汽车中,NVIDIA DRIVE Hyperion平台包括一个DRIVE AGX Orin SoC芯片、10颗摄像头、5颗毫米波雷达和12颗超声波传感器。

10个摄像头包括2颗前向摄像头、2颗侧向摄像头、2颗侧后向摄像头和4颗鱼眼摄像头。这些摄像头能够阅读交通标志和车道标志,提供周遭广泛视角和能见度,实现精确控制、安心驾驶。

5颗毫米波雷达包括1颗中程雷达和4颗角雷达,能探测其他行人、车辆的距离和速度,监测附近的交通和盲点。

超声波传感器可探测附近的障碍物,以支持平稳、自信的低速操作。

所有计算任务都运行在单颗Orin芯片上。这一套硬件配置,支撑起了整个L2++级自动驾驶功能。英伟达正与更多OEM合作伙伴推进量产落地,计划今年覆盖美国全境,明年覆盖欧洲、日本和韩国。

DRIVE Hyperion硬件架构可扩展到L4级自动驾驶。

这次试乘,我体验的是DRIVE Hyperion 8架构。而比亚迪、吉利、日产等已经在开发基于DRIVE Hyperion 10架构的新一代L4自动驾驶汽车项目。

五十铃和TIER IV采用DRIVE Hyperion里的DRIVE AGX Thor SoC芯片,合作开发L4级自动驾驶巴士。Uber、Bolt、Grab、Lyft等移动出行服务商均在基于DRIVE Hyperion扩展自动驾驶出租车规模。

梅赛德斯-奔驰也在开发一款基于新S级的自动驾驶出租车,将采用DRIVE Hyperion和全栈AV L4软件。

NVIDIA GTC大会上展出的NVIDIA DRIVE AGX Thor开发者套件

另一个值得关注的点是,不用高精地图会带来一大挑战:如何理解信号灯与车道的关联关系?

一个十字路口有多条车道、多个信号灯,怎么判断我的车道对应哪个灯?这在有高精地图的系统里,是预先标注好的。

而英伟达通过在软件栈中进行大量创新,使汽车在行驶过程中实时完成判断,在线创建全球高精地图,最终实时创建所有车道线、连接方式和行驶方案。

做到这一点,离不开先进的模型推理能力。

二、推理模型:给辅助驾驶决策注入像人一样的思维

英伟达认为,推理能力是辅助驾驶的下一个前沿。

传统辅助驾驶架构将感知与规划分离开来,这在面临突发或异常状况时,往往会限制其系统扩展性。解决这些长尾极端事件,需要具备安全推理因果关系能力的模型。

对此,英伟达开发Alpamayo生态系统,以加速安全、基于推理的自动驾驶汽车开发。

Alpamayo系列包括具备决策推理能力的AI模型、用于测试决策的闭环仿真工具AlpaSim与物理AI自动驾驶数据集。

其中, Alpamayo 1是该系列的首个版本,是一款开放VLA(视觉-语言-动作)推理模型,专为应对辅助驾驶长尾场景挑战而设计,基于100亿参数架构,集成了视觉感知、语言理解和动作生成能力,通过视频输入生成行驶轨迹,并通过推理来解释自身的决策。

Alpamayo辅助驾驶堆栈的驾驶方式非常接近人类。借助这一模型,汽车会实时感知周边环境,在后台持续推理,能够更准确地感知环境、解读环境和预测风险,推演罕见或全新场景,灵活应对复杂多变的路况,并能解释它在决定时的推理思路。

比如前方双排停车的一辆车开始倒车,车载系统不会试图从旁边硬挤过去,而是在识别倒前方汽车倒车灯亮起、汽车向后移动时,判断对方意图是停车,于是等它停好后再继续前行;如果前方汽车停着不动,车载系统就会轻轻绕过去通行。

开发者既可将Alpamayo 1调整为更精简的运行时模型,部署于车端;又可将它作为辅助驾驶的基础架构,构建基于推理的评估器和自动标注系统等开发工具。

英伟达在GTC 2026大会上最新发布的Alpamayo 1.5,正是基于Alpamayo 1模型打造。Alpamayo 1.5模型可交互、可操控,能够将行驶视频、自车运动历史、导航引导和自然语言指令作为输入,输出带有推理链路的行驶轨迹,能够清晰展示每项决策背后的逻辑。

开发者通过导航与文本指令,就能调控车辆驾驶行为并设定行驶约束条件。

AlpaSim是一款面向高保真辅助驾驶开发、完全开源的端到端闭环仿真框架,提供逼真的传感器建模、可配置交通动态,以及可扩展的闭环测试环境,支持快速验证与策略优化。

物理AI开放数据集包含来自全球2500多个城市的30多万个片段,有超过1700小时的驾驶数据,覆盖广泛的地理区域和环境条件,涵盖推动推理架构发展所需的罕见且复杂的真实世界极端场景。

三、全栈自动驾驶软件平台:多模态、端到端、主动安全防护

对于辅助驾驶系统,英伟达与OEM合作伙伴共同定义架构、功能和特性。当然最终的整车形态、驾乘感受和外观设计由OEM负责。

NVIDIA DRIVE Hyperion和Alpamayo是NVIDIA DRIVE AV全栈式自动驾驶软件平台的一部分。

NVIDIA DRIVE AV软件采用双栈架构:

(1)多模态经典栈(包括感知/规划/控制):安全守护层,提供冗余和安全防护。

(2)端到端AI栈:处理复杂动态场景,提供长尾驾驶所需的上下文推理和决策能力。

经典栈的工作原理是感知世界中的所有物体,预测动态物体的未来行为,综合使用这些信息及行驶路线来决定应该遵循的正确安全路径。

端到端AI栈将传感器与导航路线作为输入,通过一个单一网络模型直接输出最终的行驶轨迹。

系统会综合这两条轨迹,从中选择最安全和舒适的轨迹。

两层之间随时准备好交接控制权:端到端模型主导开车,经典栈则犹如托底的安全卫士,在发现端到端模型做出不可接受的决策时,立刻接管,等情况解除后,再把控制权交还给端到端模型。

驾驶员随时可以接管方向盘,期间软件始终保持运行,并在人类与它协作时提供帮助。

为安全保驾护航的核心技术由NVIDIA Halos OS安全系统提供支撑。

Halos OS基于通过ASIL D级标准的DriveOS架构打造,其统一的三层安全架构整合了安全中间件与可量产部署的安全应用,包括符合NCAP 2026五星级标准的主动安全系统,通过紧急制动、规避转向和360度威胁检测,自动防止与汽车、行人或骑自行车者发生碰撞。

通常情况下,人类驾驶员的操作拥有更高优先级。如果原定路线是执行,驾驶员打错方向盘左转,汽车会按照驾驶员的操作来行驶。但如果因为驾驶员误操作导致要撞向另一辆车,主动安全功能就会立即介入,阻止事故发生。

这些安全设计是量产落地的关键,也是通往L4自动驾驶的基础。

四、三种方式采集数据,用高保真仿真增加数据多样性

在开发阶段,英伟达主要通过三种方式与OEM合作伙伴合作推进数据采集。

一是专用数据采集车队,装备传感器的汽车由人类驾驶,在全球采集数据。

二是开发测试车队,像我们乘坐的这辆一样,做测试和开发,有些一直在采集,有些只在发生有趣事件时才采集。

三是客户车队,用户购买了搭载NVIDIA DRIVE AV系统的量产车,车辆在发生有趣事件时会采集数据。

从配备DRIVE Hyperion的汽车收集的数据,可用于在云端训练和优化AI模型,在逼真的仿真环境中验证模型,然后将更新后的软件部署回汽车,从而持续改进自动驾驶系统。

为了大规模构建和验证软件,英伟达使用了很多不同的仿真技术。

首先是英伟达Omniverse平台,使用汽车采集的多传感器数据构建数字孪生世界。

英伟达使用NVIDIA Cosmos在离线状态下创建场景的许多不同变体,这对于创建大量数据用于训练和验证堆栈非常重要,尤其是关注到我们在现实世界中几乎看不到的边缘和罕见情况。

为了构建和验证一个非常安全、可靠的堆栈,这是必不可少的。

另一项关键仿真技术是NVIDIA Omniverse NuRec。

为了涵盖真实世界驾驶场景的多样性,推理型辅助驾驶汽车的测试与验证需要高保真的仿真环境。

NuRec是一套基于3D高斯泼溅技术的工具集,可通过接收摄像头输入,摄取真实世界数据,完成可交互仿真场景的重建与渲染,即重建其在现实世界中获得的数据。

它能够帮助辅助驾驶汽车开发者在不耗费大量时间和成本手动构建世界的情况下,对推理行为进行压力测试,并模拟极端事件。

因此,英伟达能利用其在道路上行驶的每一英里、无限的时间来验证每个新的软件版本,加速辅助驾驶技术的进化。

结语

在试乘前,我曾以为这会像很多自动驾驶demo一样,是在一个安全环境里沿着封闭路段开一圈。

但汽车开到了圣何塞的真实道路上,从车流密集的市中心开到热门景点、居民区周遭,遇到了推车的老人、插队占道的车、盯着手机走过的行人等真实的"意外"。

在这场近50分钟的驾驶中,它不需要激光雷达、不需要高精度地图,仅凭摄像头、毫米波雷达、超声波传感器、芯片和具备推理能力的模型,就担当了一位称职的数字司机。

随着汽车开始具备理解真实世界、推理并付诸行动的能力,更安全、智能的辅助驾驶功能将给未来出行方式带来更多轻松与愉悦。

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容