自动驾驶网络参考架构与分布式AI架构解析
1. 网络设备的硬件与软件系统
1.1 硬件系统
网络设备(NE)的硬件系统由具有不同功能的板卡、电源单元、风扇和子架组成,可分为芯片级、板卡级和整个系统级三个层次。未来,NE将通过嵌入式片上系统(SoC)的内置AI核心、数据压缩和传输加速功能,或独立的AI/数据加速卡,提供系统所需的AI/数据计算能力。在考虑硬件系统时,需要关注以下因素:
- 成本 :在嵌入式领域实现AI计算很大程度上取决于成本。在计算开销低的场景中,可采用嵌入式SoC来复用成熟的AI加速IP解决方案;在计算开销高的场景中,则可根据需要使用独立加速卡。具体选择取决于业务节奏和策略等一系列因素。
- 性能和功耗 :面向AI的设计旨在在给定的功耗和芯片面积下实现更高的性能,需要考虑硬件设计以及与I/O系统和软件(如操作系统内核和网络栈)的协调。
- 专用计算单元 :需要为各种计算场景和模式设计计算单元,如标量计算单元、向量计算单元、张量计算单元和大容量片上缓存。优化神经网络形态计算,以支持INT16、INT8和FP16等混合精度。
- 高速片上互连 :需要片上超高带宽网状网络来支持不同计算单元之间的高速互连。
从AI专用计算架构的发展来看,行业在以下方向进行了探索和实践:
- 以数据为中心的计算 :使用以内存为中心的架构或存储计算集成架构,以缓解数据驱动负载带来的计算压力。
- 类脑计算
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



