NPU的设计比较常见的有两类套路,第一种是带指令集的指令集加速器,这种加速器类似于DSP/CPU的设计,通过专门设计的NN/Matrix加速指令集配合紧致内存,或者直接在流水线上扩展加速单元,成为流水线的一部分,这种设计的好处是逻辑灵活,软件友好。另一种是逻辑硬件化(总线加速器型)的,比如卷积算子加速,就会真的去设计一个卷积电路,然后用过总线配置寄存器的方式驱使它去工作,NVDLA神经网络加速单元的实现思路属于后者。

NVDLA官网:
NVIDIA Deep Learning Accelerator
NVDLA和做显卡也做加速器的NVDIA拼写很像,这也正象征了它们的关系,nvidla应该是NVIDIA主导的项目,从NVIDIA官网右上角的明显的NVIDIA Logo可以看的出来,由于其强大的背景,被很多芯片公司拿来套壳开发,但是无论是真正的自主开发,或者是直接购买已有的NPU IP,只要能够解决行业刚需问题,就是一个优秀的实现方案。

follow中部的github链接打开github开源项目地址,这股联系更加赤果果了,邮箱后缀直接就是nvidia的。据此可以得出结论,nvdla是nvidia主导的开源项目。
GITHUB地址:

NVDLA是一种逻辑硬件化的神经网络加速器,由NVIDIA主导的开源项目。它采用Verilog编写,主要计算单元包括卷积、激活、池化和规范化。NVDLA的软件调用流程涉及应用、模型加载、用户态库、内核态驱动和硬件交互。其硬件架构紧密绑定ISA和微架构,提供高效能但生态隔离。NVDLA拥有63个MAC,适用于加速计算密集型的AI算子,与GPGPU配合使用,实现推理计算的加速和低功耗。
最低0.47元/天 解锁文章
1530

被折叠的 条评论
为什么被折叠?



