浏览易车国际站
您是否想浏览中国自主品牌出口车型,可以为您切换到易车国际站。
添加图片
智能驾驶三合一,摄像头、激光雷达、毫米波雷达缺一不可!
现在的自动驾驶主要看中美,而中美导致主流的方案就有两种:特斯拉的纯视觉方案+国内的多传感器融合方案。
看下面这个图片,特斯拉的外围传感器主要包含 12 个超声传感器 (Valeo)、8 个摄像头(风挡玻璃顶 3 个前视,B 柱2 个拍摄侧前方,前翼子板 2 个后视,车尾 1 个后视摄像头,以及 1个 DMS 摄像头)、1 个毫米波雷达 。我们可以看到,即便是特斯拉的“纯视觉”方案,也无法避免雷达的使用。
更不要提国内的其他车企的多传感器融合方案了,更加是:摄像头和激光雷达、毫米波雷达统统上阵。
导致多传感器应用的根本原因在于,每一个单一种类传感器都是有自己的缺点,无法规避和覆盖所有自动驾驶场景需求。
一、摄像头传感器
摄像头传感器借鉴了哺乳动物的眼睛的一些概念。最重要的就是“硅传感器”类同于人类的“视网膜”。主要原理是镜头以光子的形式采集光子,这些光子会最终落在布满“感光像素点”的硅传感器上。光子具有能量,感光像素点吸收光子能量后转化为电能,存储为电荷,光线越强,电荷越大。随后会转化成计算机可读取的格式。在摄像头来看,这个世界是像素的。
这样的感光原理,导致了摄像头最大的问题,就是摄像头无法感知“深度”。“立体视觉”是生物的眼睛可以适应物体的“深度感知”。而摄像头把三维数据世界的信息转化为简洁的二维格式,在这个过程中遗漏了物体与相机之间的距离。当然,这样的问题也在通过“布置多个摄像头”来进行解决,但是实用效果依旧没有雷达等传来器来的直接(快速)、稳定。
其次,摄像头还有一个低技术含量的问题:污垢。再好的设备,沾染上一点污泥,就不能正常工作了。而前挡风玻璃的污垢问题,几乎是无法避免的,因为我们无法决定车辆行驶的路况和天气。
二、激光雷达(Lidar)
上面说的摄像头是将三维空间拆解为二维像素矩阵。激光雷达则不同,它向周围散射出强烈的脉冲激光,测算出光束反射回来所用的时间,然后计算出周围环境的三维数字模型:点云。
激光雷达能绘制出高精度的3D模型,并附有准确的深度信息,其分辨率甚至可以精确到厘米。这就决定了激光雷达在无人驾驶汽车领域无可撼动的重要地位。
但是激光雷达也有自己的缺点:成像时间。激光雷达的工作原理是发出激光,扫描周围物体,旋转一周才能将完成一次循环。如果只是发出一束激光,扫描一周显然太慢了,所以现在的激光雷达都是同时发射多组激光,而激光的光束越多,形成的数字场景分辨率越高,速度越快。
虽然现在激光雷达已经很好了,但是依旧无法满足某些“紧急”交通状况下,计算机需要的瞬时状态数据需求。
三、雷达(Radar)
雷达传感器主要由发射器和接收器组成,发射器负责向外发射电池波,而接收器负责接收回波。电磁波的波长(频率)不同,会有超声波雷达,毫米波雷达等的不同。
综合来看,雷达最大的优势就是可以穿透浓雾、暴雨、尘土、扬沙,强烈的灯光(摄像头的死对头,特斯拉就有类似的事故,落山的太阳光,角度刚好射入摄像头)。另外,利用多普勒效应,雷达不仅可以测距,还可以测速(想想你的罚单)。
当然,雷达也有其缺点,它只能在特定的,狭窄的范围内工作,所以大部分雷达传感器都是并排安装,典型的就是后保险杠的3-4颗倒车雷达。
那么总结一下:
我们可以看到摄像头高效的将3D世界信息压缩成2D像素网格,激光雷达如同一个“数码喷漆”,不那么高效的形成3D“点云”,雷达如同落入石子的水面,感应周围物体的大小、疏密、速度和方向。三者相辅相成,才能真正感知路边静止的小东西是一只小猫还是铁皮盒子。
所以,回到问题本身,那个才是智能驾驶的重要方向?恐怕只能说“全都要”,他们的作用是相辅相成的。
另外,自动驾驶的最大的问题是“安全”。保证安全,就需要“冗余”。从安全的角度来讲,多传感器融合的方案,从本质上就满足了冗余的要求,更好的保障自动驾驶汽车的行车安全。