因项目需要,开始学习OpenCL了,这是基于我正在阅读的资料,整理出的一个摘要。方便以后自己回顾以及其他同学参考。没有列出所有函数的参数和返回值列表,可查询文档:
https://www.khronos.org/registry/cl/sdk/2.0/docs/man/xhtml/
资料来源:OpenCL 2.0Reference Pages,AMD OpenCL大学课程ppt,OpenCL贴吧。
并行
任务并行:把一个问题分解为能够同时执行的多个任务。
数据并行:同一个任务内,它的各个部分同时执行。
多核GPU适合基于任务的并行编程,GPU更适应于数据并行编程。
在GPU上,一般通过循环展开(Loopstrip mining 技术),来把串行代码改成并行执行的。
GPU的程序一般称作Kernel程序,它是一种SPMD的编程模型。SPMD执行同一段代码的多个实例,每个实例对数据的不同部分进行操作。
在数据并行应用中,用loop stripmining来实现SPMD是最常用的方法:
- 在分布式系统中,我们用MessagePassing Interface (MPI)来实现SPMD。
- 在共享内存并行系统中,我们用POSIX线程来实现SPMD。
- 在GPU中,我们就是用Kernel来显现SPMD。
在现代CPU上,创建回一个线程的开销很大,如果要在CPU上实现SPMD,每个线程处理的数据块就要尽量大点,做更多的事情,以便减少平均线程开销。但在GPU上,都是轻量级的线程,创建、调度线程的开销比较小,所以我们可以做到把循环完全展开,一个线程处理一个数据。
GPU上并行编程的硬件一般称作SIMD。通常,发射一条指令后,它要在多个ALU单元中执行(ALU的数量即使simd的宽度),这种设计减少了控制流单元以级ALU相关的其他硬件数量。
OpenCL架构
OpenCL可以实现混合设备的并行计算,这些设备包括CPU,GPU,以及其它处理器,比如Cell处理器,DSP等。使用OpenCL编程,可以实现可移植的并行加速代码。但由于各个OpenCL device不同的硬件性能,可能对于程序的优化还要考虑具体的硬件特性。
通常OpenCL架构包括四个部分:

本文是OpenCL学习的初步摘要,主要介绍了并行计算的两种形式——任务并行和数据并行,以及GPU上的并行编程模型。OpenCL允许在多种设备上实现可移植的并行计算,包括CPU、GPU等。文章详细讲解了OpenCL的平台模型、执行模型和设备创建过程,如获取平台ID、设备ID,创建Context和Command Queue等。
最低0.47元/天 解锁文章
&spm=1001.2101.3001.5002&articleId=44278677&d=1&t=3&u=f60e90467d534d57ae9b1064a39b7080)
3679

被折叠的 条评论
为什么被折叠?



