自动驾驶握紧人工智能边缘计算这张王牌才有更大赢面?( 三 )


此外 , 边缘网关的AI减少了通信消耗 , 减少了通信量 , 从而提高了数据安全性 。
可扩展性
车辆边缘计算固有的分布式架构有助于将数据分配至网络边缘 , 车辆可实时分析和交互数据 , 与数据在本地操作并无二致 。
虽然云是某些任务的必要条件 , 但自动驾驶汽车需要更分散的方法来降低延迟确保安全 。 例如 , 智能传感器可以分析各自视频源 , 确定需要注意的视频帧 , 并只将该相关数据发送到服务器 。 这种分散的架构减少了数据传输过程中的网络延迟 , 因为数据不再需要穿过网络到达云端进行即时处理 。 与过去相比 , 人工智能车辆配备了更多的车载计算能力 , 能够独立完成更多的任务 。 具有更高的可预测性和更少的延迟 。
成本
越来越多的路侧单元(RSU)配置了强大的本地AI处理器 , 这有助于降低能耗、维护和运营成本 , 以及将数据传到云端的相关高带宽成本 。 与此同时 , 使边缘计算成为当今更可行的现实的关键驱动因素之一是 , 计算和传感器的成本持续下降 。
人工智能汽车处理器技术
汽车工业正经历关键的技术转型 , 向更高的自动化水平迈进 。 智能驾驶需要更高效、更强大的人工智能处理器 。 根据HorizonRobotics对主机厂需求的总结 , 更高级别的自动驾驶需要更多数量级的TOPS , 即L2级需要2TOPS , L3需要24TOPS , L4需要320TOPS , L5需要4000多TOPS 。
汽车处理器通常分为三大类:
基于CPU和GPU的处理器:灵活性越来越好 , 但通常功耗更高 。
与GPU相比 , FPGA需要更少的计算资源 , 但成本更高 , 编程能力有限 。
ASIC:通常采用定制设计 , 在性能、成本和功耗方面效率更高 。
自动驾驶握紧人工智能边缘计算这张王牌才有更大赢面?
文章图片
传统的CPU和GPU努力满足L4和L5自动驾驶级别的高计算要求 , 其中FPGA/ASIC均优于CPU/GPU 。 自动驾驶汽车需要足够的算力才能成为''车轮上的数据中心'' 。 考虑到汽车应用的复杂性 , 仅考虑算力是远远不够的 , 人工智能汽车处理器的能源效率、性能和成本效益也应考虑在内 。 因此全定制ASIC在更低功耗、性能和成本方面远优于GPU/FPGA 。 这也正是AI专用ASIC加速器在自动驾驶计算平台上的集成正蓬勃发展的重要原因 。