数组求和的快速方法(利用cuda的共享内存)--第二部分之程序完善

本文深入探讨了使用CUDA进行GPU并行计算优化的源码实现,通过迭代方法确保线程块恰好完成求和操作,并详细展示了性能测试过程。包括优化策略、代码实现以及大数组处理能力验证。
部署运行你感兴趣的模型镜像


上一篇提到,那份源码的使用是有限制的。

这次来完善一下。其实就是迭代多次,使得最后一次刚好在一个线程块可以求和。


完善部分:

template<class DType>
DType array_sum_gpu(DType *dev_array,const int array_size,DType *dev_result)
{
	//const size_t max_block_size  = 512;//目前有些gpu的线程块最大为512,有些为1024.
	const size_t block_size = 512;//线程块的大小。

	size_t num_elements = array_size;
	size_t num_blocks = (num_elements/block_size) + ((num_elements%block_size) ? 1 : 0);

	double *dev_input_array = 0;
	double *dev_block_sums = 0;//一个线程块一个和。


	while(num_elements > block_size)
	{
		if(dev_block_sums == 0)//第一次
		{
			dev_input_array = dev_array;
		}
		else //除了第一次
		{
			if(dev_input_array != dev_array)
				cudaFree(dev_input_array);
			dev_input_array = dev_block_sums;
		}
		num_blocks = (num_elements/block_size) + ((num_elements%block_size) ? 1 : 0);
		//给输出结果分配内存
		cudaMalloc((void**)&dev_block_sums, sizeof(double) * (num_blocks ));
		// launch one kernel to compute, per-block, a partial sum//把每个线程块的和求出来
		block_sum<<<num_blocks,block_size,block_size * sizeof(double)>>>(dev_input_array, dev_block_sums, num_elements);
		num_elements = num_blocks;
	}

	block_sum<<<1,num_elements,num_elements * sizeof(double)>>>(dev_block_sums, dev_result, num_elements);
	double result = 0;
	cudaMemcpy(&result, dev_result, sizeof(double), cudaMemcpyDeviceToHost);
	cudaFree(dev_block_sums);
	return result;

}


核函数block_sum还是原来的代码。


下面是测试我的代码;

void test_sum2()
{
	// create array of 256k elements
	//const int num_elements = 1<<18;//=512*512=262144
	const int num_elements = 1<<20;

	// generate random input on the host
	std::vector<double> h_input(num_elements);
	for(int i = 0; i < h_input.size(); ++i)
	{
		h_input[i] = 1;//random_num<double>();
	}

	const double host_result = std::accumulate(h_input.begin(), h_input.end(), 0.0f);
	std::cerr << "Host sum: " << host_result << std::endl;

	// move input to device memory//分配内存
	double *d_input = 0;
	cudaMalloc((void**)&d_input, sizeof(double) * num_elements);
	cudaMemcpy(d_input, &h_input[0], sizeof(double) * num_elements, cudaMemcpyHostToDevice);

	double *dev_result=0;
	cudaMalloc((void**)&dev_result,sizeof(double));

	double sum = array_sum_gpu(d_input,num_elements,dev_result);
	std::cout << "Device sum: " << sum << std::endl;


}

可以把数组数量num_elements调到很大,代码仍然能运行正确。但是如果是之前那份代码,就不可以了。



其实这个程序还是有点限制的。

请注意第一次求num_blocks.

size_t num_blocks = (num_elements/block_size) + ((num_elements%block_size) ? 1 : 0);

万一第一次求出的num_blocks大于线程块的最大数量,一般是65535,那就不行了。

所以如果数组的元素数量大于1024*65535,那就无法计算了。

解决这中问题的通常方法,是让一个线程串行执行多个相同任务。

由于求解的问题暂时没有超过这个数量级(6-7千万),所以先这样。








您可能感兴趣的与本文相关的镜像

PyTorch 2.5

PyTorch 2.5

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

### CUDA 并行计算与编程模型 CUDA 是一种并行计算平台和编程模型,旨在充分利用 NVIDIA GPU 的强大算力来加速应用程序的执行。通过 CUDA,开发者可以直接访问 GPU 的处理单元 (Streaming Multiprocessors, SMs),从而实现高效的并行化操作。 #### 1. CUDA 编程模型的核心特性 CUDA 编程模型基于两级数据并行性的概念[^3]。具体而言,在 GPU 上启动的“内核函数”会由大量的线程并发执行。这些线程被组织成一个二维或三维的网格结构 (grid),而每个网格又进一步划分为多个线程块 (block)。线程块内部的线程可以通过共享内存进行快速通信,并支持细粒度的同步机制。相比之下,跨线程块的通信则较为受限,通常依赖全局内存完成。 这种设计使得 CUDA 非常适合解决那些可以分解为独立子任务的大规模问题,例如矩阵乘法、图像处理以及机器学习中的张量运算等。由于 GPU 中存在众多核心,因此即使单个线程的性能可能低于 CPU,整体吞吐量仍然显著高于后者。 #### 2. 利用 CUDA 提升 NVIDIA GPU 性能的关键策略 为了最大化 NVIDIA GPU 的性能优势,以下是几种常见的优化方法- **合理分配资源**: 将计算密集型部分卸载到 GPU 而保留控制逻辑于主机端(CPU)[^1]。 - **减少访存延迟**: 使用本地存储器(Local Memory), 常数缓存(Constant Cache) 和纹理缓存(Texture Cache) 来降低频繁访问外部 DRAM 所带来的开销; 同时尽可能复用寄存器(Register File) 及片上共享内存(SM Shared Memory). - **负载均衡**: 确保所有 Streaming Processors(SP) 或 Compute Units(CU) 处理的工作量大致相等以免造成某些单元闲置浪费. - **隐藏长时间运行的操作**: 如果某个阶段涉及较慢 I/O 操作或者复杂浮点运算,则应考虑引入额外流水线步骤以便掩盖其潜在影响. 下面展示了一个简单的例子说明如何编写一段基本的向量加法程序: ```c++ __global__ void vectorAdd(const float *A, const float *B, float *C, int numElements){ int i = blockDim.x * blockIdx.x + threadIdx.x; if(i<numElements) C[i]= A[i]+ B[i]; } // Host code omitted for brevity. ``` 此代码片段定义了一个名为 `vectorAdd` 的设备函数(device function),该函数接受两个数组指针作为参数并将它们逐元素求和后写入第三个目标位置。注意这里采用了标准宏定义方式标记出哪些区域属于实际部署至硬件上的可执行体(`__global__`)。 #### 结论 综上所述,CUDA 不仅提供了灵活易懂的应用接口帮助程序员轻松移植现有串行解决方案转换成为高度并行版本形式,而且还能深入挖掘现代显卡架构潜力进而达成数量级提速效果.[^2]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值