NVIDIA(深度学习DLI)西安站培训总结

本文探讨了计算行业从CPU向CPU与GPU协同处理的发展趋势,介绍了GPU编程的三种方式及内存调度方法,并概述了构建和部署深度神经网络应用的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

NVIDIA(深度学习DLI)西安站培训总结
计算行业正在从只使用CPU的“中央处理”向CPU与GPU并用的“协同处理”发展的趋势进行。
编程GPUs的3种方式
1 Libraries (Easily Accelerate Applications)
2 OpenACC Directives (Easily Accelerate Applications)

3 Programming Languages (maximum Performance)


CPU与GPU内存调度
CPU memory:
---malloc()
---memset()
---free()
GPU memory:
---cudaMalloc()
---cudaMemset()
---cudaFree()

Summary
1 CPU是串行处理单元,并且是需要减少等待时间的,GPU的大规模并行去减少延迟。
2 GPU包含很多个Streaming Multiprocessor(SM),并且每一个SM包含多个CUDA核心。
3 一个CPU和GPU的对应关系:
     CPU  <------>  GPU
               Threads <------>  CUDA cores
            Blocks <------>  SM
       Grid <------>  GPU device

构建和部署深度神经网络应用过程
1 原始数据和想要应用的原始网络设想
2 通过数据预处理
3 定义网络
4 训练网络
5 优化网络
6 部署网络

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值