​大疆“激目”让激光雷达不再“摸鱼”?

壹零社科技宅 2024-07-27 07:40:32

激光雷达一直是车企又爱又恨的东西,因为这玩意让智驾系统多了一种感知途径,能增加智驾的可靠性,但用不好又会让它在后台摸鱼。

01

视觉与激光测距

智驾的基本逻辑是使用机器视觉算法让车学会自己“看路”,车需要认识道路上有什么,比如红绿灯、行人、其他车辆……这些信息通常被称作“语义信息”,这些语义信息是通过车载摄像头拍摄照片采集的。当然光认出照片中的物体是什么还不够,还需要知道物体的距离,也就是深度信息。

人类是通过两只眼睛来获取深度信息,你可以做个小实验:在闭上一只眼睛的情况下,很难准确把笔盖盖在笔上。而只要把两只眼睛都睁开,就变得非常容易了。这就是因为双眼获取的画面有一个固定的视角差,大脑就能根据两张平面图对比,计算出距离信息。

纯视觉智驾方案测量深度信息的原理也一样,双目摄像头拍摄的两张照片有一个微小的视角差异,由于两个摄像头之间的距离也就是基线长度是已知条件,就能根据三角测量算出物体的大概距离。

例如这台军用的58式1米光学测距机,在观察窗的标尺上已经有提前计算好的距离,测距人员双眼会先看到左右两个图像的重影,只要调节光标让目标图像完全重合就表示已对焦,就可以直接读出测距值。

58式1米光学测距机

激光可以精准测距,记录发射激光碰到物体之后光反射回来的时间,乘上光速就能算出准确的距离。激光雷达能同时发射很多束光,一次测量出多个点的距离,比起视觉这更像是触觉,用光去摸出周围物体的轮廓,形成周遭障碍物三维坐标分布的“点云”。

02

摸鱼的激光雷达

在摄像头中周围运动的物体实际上是一团模糊的雾,而点云则能精确识别物体的轮廓,但在点云中只有深度信息没有语义信息是无法独立工作的,必须在智驾算法中把两种信息结合起来,才能有效工作。但是,要把两种数据完美整合在一起并不容易。

比如,后融合方式就是让摄像头做学生,激光雷达做老师,根据照片独立标注出语义和深度信息后,把其中的障碍物给激光雷达检查一遍,激光雷达只需要说是或否。

而前融方式激光雷达的参与程度更高,两者成了同学关系,两人都对周围障碍物用自己的方式算了一遍,然后交换对答案。最常用的方式就是把点云投影到图像上,检查点云是否属于图像上检测出的2D目标。

在这两种方式中激光雷达的作用只能说有,但不多。整个决策过程中由于两只眼睛的位置不一样(通常摄像头和激光雷达位置相隔较远)。看到东西的时间也有微小差异,两张嘴常常会发生冲突,具体谁说了算要看具体算法的权重。如果算法有问题,反而会变成一加一小于一的效果,还不如纯视觉算法,便宜还没那么多冲突。

03

大疆“激目”方案

现在做纯视觉的大疆拿出了带激光雷达的一体化方案——激目。激目的集成度很高,包含了双目摄像头、长焦摄像头(提升检测距离)、激光雷达,并把它们一起封装在了前挡风玻璃后面。

大疆是以未来支持L3为目标研发的激目,由于设备集成度高,激光雷达和双目摄像头的位置在算法训练阶段就已经固定,免除了设计、量产、维修时的位置校准差异。

而两者的融合方式也是“前前融合”式,两者的关系是同一个大脑的两只眼睛,它们同时向域控制芯片提供周围环境的特征数据,到了这里才融合成携带深度信息的点云图。这种方法让参数并不突出的激光雷达代替滤波方法,为相机图像准确去除噪声和串扰。控制器从训练伊始就不管信息是从哪里来,只需要根据融合的整体信息做决策。从源头解决激光雷达摸鱼的问题。

2 阅读:230