自动驾驶系统中的复杂计算依靠硬件算力还是计算效率?这是横亘在许多创业公司面前的实际问题。依靠前者需要投入大量资金,依靠后者则离不开底层威廉希尔官方网站 的钻研和开发。
在2021年CES上,L4级自动驾驶解决方案提供商元戎启行将在线上展示其针对L4级自动驾驶深度学习模型研发的推理引擎DeepRoute-Engine。该推理引擎实现了比开源深度学习框架平均高6倍的推理速度。大幅提升了自动驾驶的计算效率,令自动驾驶摆脱了对高算力计算平台的依赖。
自动驾驶要做到像人类一样感知周围物体,需要通过深度学习来完成,即需要通过大规模的、复杂的深度学习网络模型来对输入的数据进行推理。在推理过程中,需要实时完成大量的计算。因此,自动驾驶企业对计算平台的算力有着严格的要求。
这类计算平台不仅成本高达数万元,功耗也高达数百瓦。假设计算平台的平均功率为500W,其24小时的耗电量约占一辆蓄电量为50kW·h的电动车的24%。
为了摆脱自动驾驶对这类计算平台的依赖,降低自动驾驶的硬件成本,以及减少自动驾驶硬件耗能对汽车行驶里程的影响,元戎启行选择了另一种方式。通过自研的推理引擎——DeepRoute-Engine,让L4级自动驾驶的感知模块,可以运行在低成本、低功耗的计算平台上。
根据元戎启行与曹操出行合作的自动驾驶车型——几何A的实车测试,元戎启行的自动驾驶系统,每行驶100公里只消耗1度电。该耗电量还包括了车内负载2人,空调开启,以及传感器风阻对能量的耗费。
在自动驾驶系统中,感知模块是其最核心、计算量最大的软件模块。想要提高感知模块的运行效率,就需要针对感知算法的特点、计算需求,以及计算平台的架构特点进行适配,从而驱动系统的高效运行。一个定制的推理引擎就相当于定制的驱动器,不仅能够提高感知模块运行效率,还能提高系统可扩展性,兼容更多计算平台。
L4级自动驾驶感知算法所使用的深度学习框架非常复杂,需要实时进行大量复杂计算。目前市场上开源的推理引擎,大多无法处理复杂的L4级自动驾驶深度学习模型。而诸如Caffe、TensorFlow、PyTorch这类深度学习框架,尚未针对复杂的深度学习框架进行计算优化,因此,其计算效率也差强人意。元戎启行的推理引擎通过智能的算子融合,将推理过程中可合并的运算进行合并,大幅提高计算效率。
DeepRoute-Engine还针对不同品牌的计算平台设计了定制的内核程序,用以执行所需的大量并行计算。DeepRoute-Engine目前支持包括AMD、Nvidia、Intel等品牌的GPU,以及华为的车载计算平台。
目前,市场上常见的用于自动驾驶的计算平台有CPU、以及采用GPU、FPGA、ASIC等架构的AI芯片。由于自动驾驶系统需要处理激光雷达、相机等传感器采集的海量数据,传统的CPU算力越来越无法满足使用要求,以GPU架构为主的AI芯片成为了实现自动驾驶必不可少的硬件。
而我国在GPU的生产上,与国际厂商还有一定的差距,元戎启行所研发的推理引擎,适用于不同品牌的CPU、AI芯片,解决了自动驾驶被计算平台“卡脖子”的问题。
元戎启行副总裁刘念邱表示:“通过DeepRoute-Engine,元戎启行已将复杂的深度学习模型运用在国内外主流的计算平台上。我们希望能与各界厂商携手,共同研发、推进更适合自动驾驶的低功耗、低成本计算平台解决方案,促进自动驾驶车辆的前装量产。”
-
自动驾驶
+关注
关注
784文章
13787浏览量
166408 -
元戎启行
+关注
关注
1文章
20浏览量
3954
发布评论请先 登录
相关推荐
评论