关于ZAKER 合作
AutoLab 1小时前

纯视觉路线的豪赌:特斯拉的摄像头,遇到了人眼同样的瓶颈

智能驾驶在硬件方案有两条路线,主要争议在于用不用激光雷达。

马斯克一直主张纯视觉,别说激光雷达,甚至毫米波、超声波雷达也一并取消,完全依赖摄像头完成全场景的辅助驾驶。

并且他的核心论点是,人类开车不需要激光雷达这样的 " 盲杖 "。

我们写过一篇《马斯克再开火,激光雷达 " 加 " 错了?》,描述了视觉派和激光雷达派的 " 纷争 ",评论区的伙伴们几乎一边倒地偏向激光雷达,认为纯视觉有很多弊端,并不能完全替代人眼。

那么车载摄像头,感知能力真的不能超过人眼吗?

让我们先来看看车载摄像头的工作流程。

为什么摄像头或者相机能拍下照片?

其中的基础原理是镜头捕捉到物体反射或发出的光线以后,图像传感器会形成光学图像并转化成电信号,最终经过处理形成数字图像。

在吸收光线这一步,镜头质量、光线环境都很重要。

想要看得清,就得先做到 " 吸收更多光线 "。

以猫咪在夜晚的视力举例,它的瞳孔能扩大到眼球的 90%,进光量是人类的 6 倍。

特斯拉摄像头通过采用 RYYB(红 - 黄 - 黄 - 蓝)滤镜,比起传统滤镜,进光量能提升约 40% 。

还有些车企为了在黑夜中增强感知能力,会增加一颗红外摄像头。

总之,摄像头和人眼一样,都是被动的接受光。

各有优劣

自动驾驶是一场模仿游戏,摄像头就是充当人眼的作用。

你在开车时可以通过转动脖子或眼球来观察周围环境。

但摄像头位置是固定的,于是车企在车身四周都布置了摄像头,确保可以让系统无死角地观察四周。

人眼可以通过变焦来观察不同距离的物体,但车载摄像头无法变焦。

于是车企通过布置多个不同焦距的摄像头(广角、长焦、主摄)来覆盖不同视野。

摄像头和人眼有着共同的属性,所以它们之间的弱点都是类似的。

它们中的有些问题可以通过算法解决,有些则会影响辅助驾驶的功能使用。

最常见的就是强光和弱光环境。

在出隧道这种同时出现强暗光的地方,一种曝光度很难照顾到两种环境,人眼需要 1-2 秒的时间去适应,而辅助驾驶系统一般会通过 HDR 多帧融合去解决这样的问题。

它甚至可以像人类一样脑补画面,给模糊图片填补像素,但这非常考验算法拥有的数据库。

共同弱点还体现在雨雾天气下。

大雨大雾环境下,人类开车唯一能做的就是放慢车速。

摄像头同样无法很好地解决这些问题,在这样的天气条件下,毫米波雷达是一种很好地补充。

作为最极致的、最坚定的纯视觉路线拥趸,特斯拉已经通过算法改善了恶劣光线环境下的表现。

但仍然会有偶发的感知问题,最近一位北美用户在傍晚迎面夕阳使用 FSD 时,系统却因为摄像头受光线刺激无法开启功能。

但我们通过用户拍摄的图片来看,虽然是逆光,但光线并不算强烈。

不管是人眼还是摄像头,都是获取物理世界信息。真正对驾驶起到决策作用的,还是背后的大脑和计算平台。

所以一句话总结现阶段的视觉感知:

诸如特斯拉这样的企业已经把视觉感知拉到了很高的水平,在部分环境下的感知能力甚至强于人类双眼,但也会有同样处理不好的环境和场景。

特斯拉已经基于纯视觉能力在北美奥斯汀试运营了 Robotaxi,目前出现了偶发的剐蹭事故,但未出现严重的安全事故。

如果这套系统能够在更加复杂的场景实现自由的接驳,那么纯视觉感知就到了不再需要证明可行性的时刻了?

写在最后

目前关于硬件方案,行业内还存在争议。

在 9 月 9 日举行的深蓝发布会上,作为辅助驾驶解决方案供应商的华为车 BU CEO 靳玉志公开抨击了纯视觉路线:

纯视觉有一定短板,需要学习才能感知障碍物,而激光雷达不需要学习就能识别障碍物,带激光雷达的融合感知一定比纯视觉好。

未来究竟是走向纯视觉还是多传感器融合,我们把它交给时间来解答。作为消费者,我们还是以实际体验为决策出发点。

END

相关标签