当我们谈论无人驾驶时,经常会将“无人驾驶”、“自动驾驶”与“驾驶辅助”混淆,认为三者之间是可替代的关系。其实不然,它们分别代表了不同级别的自动驾驶技术。
自动驾驶相比于驾驶辅助,对技术和车辆性能要求更严格,主要体现在以下两个方面。
一方面是需要更好的目标识别算法。驾驶辅助(ADAS)主要作用在于被动式报警,它有一个很重要的衡量指标,那就是“误报率”,“误报率”如果太高,大家就可能把这一套系统关掉了。
“误报率”是衡量自动驾驶技术的重要考量,比如,自动驾驶里有一个AEB(自主紧急制动),如果总是误刹,会对车辆的安全造成威胁。相对于误报率,漏报率可能并不是驾驶辅助(ADAS)中最重要的一个指标,但当系统从“驾驶辅助”变成“自动驾驶”之后,漏报率必须要降低为零。因为出现一起漏报,可能就会车毁人亡。因此,这些都需要有更好的目标识别算法和多传感器的融合。
另一方面,视觉和雷达的融合要进一步提升。不久前,特斯拉的辅助驾驶发生了一起车祸——撞上了一辆横着的拖车。出现这种情况,就说明了视觉和雷达的重要性。首先,特斯拉Autopilot用的车辆识别技术还比较原始,它基本上能看到本车道或相邻车道的车尾,由于车尾下有阴影和车灯,这些特征使得在夜晚也能比较清晰的识别出来。但是在这次事故中,特斯拉撞上了一辆横着的车。这个车的色彩很难跟背景区分开来。因此,视觉这一方面是需要进一步提升的。
在这起车祸中,为什么雷达没有探测到那辆拖车呢?特斯拉方面的回应是,雷达确实探测到了这辆车,但是把它归类成为了横跨马路的道路标志。从普通的雷达算法的角度上说,它是希望在靠近的时候能够做出更准确的判断。但是很可惜,这个拖车的底盘非常高,而雷达安装的位置比较低,所以靠近的时候并没有被发现。实际上更早的时候也出现过特斯拉的雷达没有判断出前面较高底盘的车的情况。所以,雷达和视觉方面也需要提升才能更好的去做自动驾驶。
随着硬件和算法的发展,上述问题正在逐一得到改善。基于深度学习的目标识别算法能够大大提升目标识别的精确度,但是深度学习还不够,因为在目前基于深度学习的识别中,前车需要露出1/3才能够识别出来。既然深度学习不够用,硬件能否弥补呢?正好视觉雷达就能够填补它的缺点,但是如果深度学习和视觉雷达相结合,能够发挥更好的效果。
驾驶辅助
驾驶辅助包括不少功能,其中比较有代表性的比如自适应定速巡航(也就是ACC),是用于定速跟车前进;又比如车道保持,能够将车辆保持在车道内行驶。这两者相结合就是最新的堵车驾驶辅助系统,在堵车的情况下,能够控制车辆的方向和走停。
而自动驾驶除了实现驾驶辅助的基本所有功能外,还可以允许驾驶员将注意力从交通情况和控制车辆中解放出来做其它事情。但是,驾驶员仍需要坐在车里,在自动驾驶系统尚未启动或者退出时控制车辆。而无人驾驶则可以没有驾驶员,完全的车辆自主驾驶。
无人驾驶技术等级处于最高级,无人驾驶相当于完全的自动驾驶,也就是说在无人驾驶的技术等级下,开车这活完全交给了无人驾驶系统。无人驾驶车辆中或许只有1个启动/关闭按钮,当我们每天上车,点击“启动”按钮,将目的地告诉系统,那么车子就会载着你到达你想要的目的地。至于中间行驶过程,怎么走,开多快,都是车说了算。你只需要安心在车内睡觉或者思考问题。
当前谷歌的无人驾驶车没有方向盘,也没有油门,就一个启动和关闭按钮,是真正意义上的无人驾驶车,虽然功能方面还有很长的路要走;百度的无人驾驶车,严格意义上来说是一辆具备高级自动驾驶功能的汽车。
在目前技术水平下,实现无人驾驶技术,还有许多工作要做,主要包括:高精度的地图定位、强大的认知算法以及软件架构的安全性保障,其中任意一个问题都是相当棘手的。按照目前的技术发展,2020年后,限定场景的无人驾驶汽车会量产,但要实现全天候全区域的无人驾驶,起码十五年以后。