特斯拉通过覆盖全车的摄像头+超声波传感器和一颗前置雷达以实现高级别自动驾驶场景的覆盖,其最大支撑来自售后车辆数据基础上的神经网络训练。通过深度学习覆盖更多工况与场景,使得视觉算法无限接近人类的感知和判断。
“他们之所以一开始没有推出这个功能,不是因为没有能力或者算法没写完,更多是数据不够,没有完全验证场景。通过量产车型去收集数据,对于其他车厂也有启发作用。”业内人士对出行一客(ID:carcaijing)表示。
特斯拉的路线并非主流。赵鑫表示,产业链的动态变化反映了激光雷达的必要性。“激光雷达的制造商变多了,更多车厂开始使用激光雷达,这可能比讨论技术路线更有说服力。”
部分从业者认为,要实现L4级以上自动驾驶,需要激光雷达、摄像头和毫米波雷达等多种传感器的综合验证。
国内智能驾驶公司福瑞泰克总裁张林在接受媒体群访时指出,单靠图像感知技术和视觉算法很难做到全无人驾驶,需要融合激光雷达算法,这也对算法的自研能力与融合技能会提出更高的要求。
“绝大多数做标识的科技公司买国际厂商的雷达,自己做算法做融合,但雷达输出的是目标级信号,但越高程度的自动驾驶越需要底层的融合。看到的事实和目标背后是集聚和追踪的算法,但这个过程会被过滤。如何在两个目标叠加很近的位置中去辨识,只有做了雷达算法的人才能了解和掌握。”张林表示。
另一方面,传感器并非越多越好。尽管安装的传感器数量、种类越多,车辆对周围环境检测越有效,但传感器过多不仅会使成本增加、导致相互干扰,对集成和算力也会带来挑战。
福瑞泰克感知融合专家刘熙告诉出行一客(ID:carcaijing),通过多传感器融合技术可以实现冗余,即在单一传感器失效时能通过其他传感器数据交叉验证,提高容错性。此外,在激光雷达成本较高的情况下,多传感器融合可以提高解决方案的经济效益。
不仅仅是车内传感器的融合,路端传感器数据也将并入数字流,成为车端自动驾驶的补充。
“从车端到路端,从终端到云端”的5G-V2X车路协同路线被越来越多的自动驾驶公司提及,一直强调单车智能的Waymo也已开辟车道研究车路协同技术解决方案。
研究显示,车路协同可以解决单纯依靠车辆传感器感知的置信度不足的问题,或将整车安全性提高2-3倍。通过在路端加入摄像头、雷达等传感器,有如给汽车的感知设备之外再加上一双“上帝之眼”,降维解决复杂工况及场景。
在大力推进新基建的背景下,上海、雄安自动驾驶示范区的一些测试路端上已经搭载了高清的8K摄像头、激光雷达、毫米波雷达等。
“这些技术帮助车了解到路上运行的交通状态,如识别交通事故、占了哪条车道等,这些信息传递回云端再到车端,无人驾驶车能提前预见、规划路径避开。”刘熙表示。
王小斌指出,车路协同相当于汽车的一个“超视距传感器”,提供现有车载传感器探测范围以外的信息,尤其是在复杂场景中。
“从主流观点来看,要实现高级别的自动驾驶,路端的信息是必不可少的。但现在来看,车路协同的成本是一个限制因素,单个车企很难承担,需要政府或者行业来牵头推动。”王小斌表示。
文| 刘皖媛
编辑|施智梁
本刊记者赵成对此文亦有贡献
本文原载2020年11月23日《财经》杂志“汽车与出行”栏目