
硬件加速
文章平均质量分 91
对DNN算法的硬件加速方案,包括算法优化和硬件实现
KGback
一个ICer的搬砖生涯
展开
-
【论文解析】基于开源 Matrix 指令集扩展(矢量点积)的高性能 RISC-V 处理器“香山”(nanhu 版本)的 LLM 加速的研究
新增矢量点积扩展指令集的的“香山”处理器的 LLM 加速的研究原创 2024-09-24 21:40:01 · 818 阅读 · 0 评论 -
【论文解析】Optimizing Attention by Exploiting Data Reuse on ARM Multi-core CPUs
Optimizing Attention by Exploiting Data Reuse on ARM Multi-core CPUs原创 2024-08-18 23:17:26 · 1324 阅读 · 0 评论 -
【论文解析】ELSA: Hardware-Software Co-design for Efficient, Lightweight Self-Attention Mechanism in NN
ELSA: Hardware-Software Co-design for Efficient, Lightweight Self-Attention Mechanism in NN原创 2024-09-01 21:40:02 · 1061 阅读 · 0 评论 -
【论文解析】A3: Accelerating Attention Mechanisms in Neural Networks with Approximation
A3: Accelerating Attention Mechanisms in Neural Networks with Approximation原创 2024-07-05 21:00:55 · 1227 阅读 · 0 评论 -
【论文解析】Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and Algorithm Co-design
Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and Algorithm Co-design原创 2024-07-06 22:14:25 · 1099 阅读 · 0 评论 -
【论文解析】基于脉动阵列的层融合注意力模型加速器结构
基于脉动阵列的层融合注意力模型加速器结构原创 2024-08-30 21:35:57 · 963 阅读 · 0 评论 -
【论文解析】Transformer 模型压缩算法研究及硬件加速器实现
Transformer 模型压缩算法研究及硬件加速器实现原创 2024-07-04 21:04:09 · 2351 阅读 · 1 评论 -
Transformer推理硬件专用加速器
当前大模型的基础架构正在向 Transformer 结构收敛,Transformer架构自谷歌2017年提出后比较稳定,因此针对Transformer的计算设计专用的ASIC加速器很有必要。原创 2024-08-26 22:45:51 · 1629 阅读 · 0 评论