AI算力基础 -- MIT课程《Understanding Deep Neural Networks》

本文介绍了深度神经网络在CPU/GPU平台上的高效处理方法,如矩阵乘法优化、FFT/Strassen/Winograd转换,以及针对稀疏性和精度降低的算法设计。章节详细探讨了批处理大小、数据重用、算法与硬件协同设计,涵盖了深度卷积、灵活性和可扩展性,以及其他平台如DNN加速器和新兴技术。

阅读总结

深度神经网络的高效处理(硬件)《Efficient Processing of Deep Neural Networks》读书笔记
原书:《Efficient Processing of Deep Neural Networks》Vivienne Sze, Yu-Hsin Chen, Tien-Ju Yang, Joel S. Emer(Morgan&Claypool Publishers - Synthesis Lectures On Computer Architecture)出版时间:Jun 2020
作者 MIT Vivienne Sze.

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
Batch Size
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

一、CPU && GPU Platform

在这里插入图片描述
全连接层可以直接转为矩阵乘:
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
高斯算法:
在这里插入图片描述
FFT/Strassen/Winograd:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Properties We Can Leverage:

四份数据需要 RW, 所以下述倍数为4.
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Algorithm & Hardware Co-Design:

在这里插入图片描述

Reduce Precision:

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

Sparsity:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Efficient network architecture:

Sparsity:请添加图片描述

在这里插入图片描述
在这里插入图片描述
Depthwise convolution:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值