功能及其复杂性的不断增加需要专门的硬件解决方案,以支持功能情境感知的软件处理。
对于软件,我们过去习惯在计算机和嵌入式应用中采用标准的标量处理器,例如微处理器、微控制器和其他应用处理器,现在它们显然已经无法应对实时数据的大量增长,这些实时数据是汽车在行驶中进行情境感知和自主控制所必需的。这就需要将处理范式从标量转换为矢量,并最终使用大规模并行处理架构和低延迟大数据计算来完成矩阵处理。现场可编程逻辑门阵列(FPGA)被越来越多地用于汇总融合数据,并实现可配置的并行处理。
还有一种用于ADAS(以及其他许多大数据应用)的处理器解决方案,即神经网络(NN)加速器。对许多刚接触神经网络的人来说,这种加速器就像“黑匣子”。而且,由于不熟悉这种处理器所用的逻辑,加上完成可预测和可重复的安全测试极其复杂,使这种感觉尤其强烈。这可能不利于其实施,特别是在整个汽车行业越来越提倡“安全第一”的情况下。
尽管存在这些障碍,我们仍然看到了加速器或神经引擎/神经处理单元(同样的架构,只是名称不同而已)在ADAS解决方案中的应用。神经网络算法1950年代就已经出现,用于处理天气预报、空中交通管制和复杂的物理方程等大数据问题。互联网和社交媒体为大数据创建了新的舞台,我们开始看到在云端执行的神经网络算法被用来解决大数据问题。谷歌、亚马逊和微软等科技巨头都已经开始将大量资源投入神经网络,包括开发他们自己的硬件加速器。
十年前,英伟达开发了一种通用图形处理单元(GPU)开发环境,以支持在GPU中加速神经网络和矢量方程。从那时起,边缘应用中实现推理的深度神经网络(DNN,一种用于神经网络的更高级的分层特征方法)开发竞赛迅速展开。
这些神经网络引擎或加速器正迅速成为移动电话的标准子系统,用于识别对象、面部和其他场境,以促进照片、安全性和复杂的图像分析应用。研究人员很快就意识到,这正是汽车行业的情境感知所需要的,它可以解决汽车安全的最大问题:驾驶员出错。特斯拉、奔驰、奥迪、沃尔沃和其他许多公司一直在与一级供应商和处理器供应商合作开发神经网络,其中很多公司已经拥有配备了自动驾驶系统的高级车型,并且多年来一直在训练DNN解决方案。
早期的DNN加速器大多是由英伟达开发的(英伟达仍然是ADAS的主要供应商),现在也有很多其他公司的加速器可供选择,如Mobileye、赛灵思、德州仪器、东芝、安霸和瑞萨电子。另外还有很多使用DNN加速器的开发平台不断涌现。
特斯拉去年也将这些加速器和AI集成到其FSD芯片中。2021至2022年将会出现更多OEM的解决方案,因为这些供应商已经使用最新的ADAS,或者将会使用ADAS。随着自主化的不断发展,未来会集成越来越多的AI,相应也会集成越来越多的加速器。而集中化等趋势则将逐渐改写计算的未来,如图4所示。
图4:从传感器套件到计算套件的路线图。(图片来源:Yole)
我们看到,市场的发展有两个趋势:
第一个趋势是来自高端自动驾驶汽车的集中式ADAS域控制器(由英伟达和特斯拉开发),或者FSD,负责几乎所有的感知计算及随后的安全控制和自动驾驶推理,并仿真汽车的中央大脑。
第二个趋势是一种分层方法,将感知后视觉智能用于专用视觉处理器或采用DNN加速的平台。集成加速器的视觉处理器数量成倍增加,目前多家OEM都采用了这种方法。该趋势使这两种类型的平台互相竞争,并决定了其营收的多少(图5)。到2025年,人工智能市场(包括ADAS和自动驾驶汽车)收入估计将超过28亿美元,其中25亿美元来自ADAS。
图5:汽车AI计算市场。(图片来源:Yole)