
GPU
妖怪哪里走
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
NeurIPS顶会接收,PyTorch官方论文首次曝光完整设计思路
PyTorch 已开源两年多了,现在是最火热的深度学习框架之一。但是,和一些有着论文介绍的开源项目相比,PyTorch 背后的特性和思想还没有被完整介绍过。近日,趁着 NeurlPS 2019 大会即将召开,PyTorch 开发项目组也「水」了一篇论文——PyTorch 框架论文。这篇论文完整且系统地介绍了 PyTorch 本身,引起了社区的关注。 目前,这篇论文已经被 NeurlPS...转载 2019-12-03 08:58:37 · 1042 阅读 · 0 评论 -
TURING STREAMING MULTIPROCESSOR (SM) ARCHITECTURE
The Turing architecture features a new SM design that incorporates many of the features introduced in our Volta GV100 SM architecture. Two SMs are included per TPC; Each SM has a total of 64 FP32 ...原创 2019-06-22 10:14:50 · 234 阅读 · 0 评论 -
Turing SM中的浮点和整数指令并行执行机制
The following figure shows that the mix of integer pipe versus floating point instructions varies, but across several modern applications, we typically see about 36 additional integer pipe instruction...原创 2019-06-22 10:24:49 · 476 阅读 · 0 评论 -
TURING STREAMING MULTIPROCESSOR (SM) : Shared Memory Architecture
Turing’s SM also introduces a new unified architecture for shared memory, L1, and texture caching. This unified design allows the L1 cache to leverage resources, increasing its hit bandwidth by 2x per...原创 2019-06-22 10:52:46 · 250 阅读 · 0 评论 -
Turing Tensor Cores
Turing GPUs include an enhanced version of the Tensor Cores first introduced in the Volta GV100 GPU. The Turing Tensor Core design adds INT8 and INT4 precision modes for inferencing workloads that can...原创 2019-06-22 11:13:30 · 571 阅读 · 0 评论 -
python优先的端到端深度学习平台
Distiller是一个开源的Python软件包,用于神经网络压缩研究。 网络压缩可以减少神经网络的内存占用,提高推理速度并节省能源。Distiller提供了一个PyTorch环境,用于对压缩算法进行原型设计和分析,例如稀疏诱导方法和低精度算法。 一、功能集 突出特点: 使用幅度阈值,灵敏度阈值和目标稀疏度来逐元素地修剪(每层定义)。 结构修剪: 卷积:2D(内核方式),3D(过滤方式...转载 2019-06-24 16:11:05 · 420 阅读 · 0 评论