CUDA矩阵乘法

本文介绍如何利用GPU进行矩阵乘法运算,并对比了使用全局内存与共享内存的不同方式。全局内存方式直接采用线程读取计算;共享内存方式则通过线程块加载数据,提高缓存利用率。

一、使用全局内存

矩阵乘法,即用矩阵A每行与矩阵B的每列,依次做乘积累加就可以得到各个元素的值。在CPU上用三层循环实现。这里是将二维数组用一维的形式表示,即按行存储。

	size_t size = WIDTH*WIDTH * sizeof(int);
	int *h_A = (int *)malloc(size);
	int *h_B = (int*)malloc(size);
	int *h_C = (int*)malloc(size);
	int *h_d_Answer = (int *)malloc(size);
	if (h_A == NULL || h_B == NULL || h_C == NULL || h_d_Answer == NULL) {
		exit(EXIT_FAILURE);
	}
	for (int i = 0; i < WIDTH; i++) {
		for (int j = 0; j < WIDTH; j++) {
			h_A[i*WIDTH + j] = i*WIDTH + j;
			h_B[i*WIDTH + j] = 1;
		}
	}
	for (int i = 0; i < WIDTH; i++) {
		for (int j = 0; j < WIDTH; j++) {
			int sum = 0;
			for (int k = 0; k < WIDTH; k++) {
				sum += h_A[i*WIDTH + k] * h_B[k*WIDTH + j];
			}
			h_C[i*WIDTH + j] = sum;
		}
	}
	printf("CPU answer:\n");

使用全局内存在GPU上的作法是,用idx idy作为二维数组的索引形式,这样就可以通过[idy*WIDTh + idx]确定到具体的元素,每个线程读取A的一行和B的一列,然后一个循环作累加。

在GPU对应的kernel 函数:

__global__ void kernelMatrix(int *A, int *B, int *C){
	int idx = threadIdx.x + blockDim.x*blockIdx.x;//col  number
	int idy = threadIdx.y + blockDim.y*blockIdx.y;//row number
	if (idx < WIDTH && idy < WIDTH) {
		int sum = 0;
		for (int k = 0; k < WIDTH; k++) {
			sum += A[idy*WIDTH + k] * B[k*WIDTH + idx];
		}
		C[idy*WIDTH + idx] = sum;
	}
}

二、使用共享内存

每个Block计算一个方阵的子矩阵,大小为BLOCKDIM,由BLOCK的共享内存装载数据。

线程配置示意图:


数据装载过程示意图:


======================================================================

外部for循环控制所有的线程读取的次数WIDTH/TILE_WIDTH
内部for环进行共享内存数据的相乘并累加

实现代码如下:

__global__ void kernelMatrixShare(int *A, int *B, int *C) {
	__shared__ int ds_M[BLOCKDIM][BLOCKDIM];
	__shared__ int ds_N[BLOCKDIM][BLOCKDIM];
	int idx = threadIdx.x + BLOCKDIM*blockIdx.x;
	int idy = threadIdx.y + BLOCKDIM*blockIdx.y;
	int tx = threadIdx.x;
	int ty = threadIdx.y;
	int sum = 0;
	for (int m = 0; m < WIDTH / BLOCKDIM; m++) {
		ds_M[ty][tx] = A[idy*WIDTH  +  m*BLOCKDIM+tx];//A[idy][m*BLOCKDIM + tx];
		ds_N[ty][tx] = B[idx + (m*BLOCKDIM + ty)* WIDTH];
		__syncthreads();
		for (int k = 0; k < BLOCKDIM; k++) {
			sum += ds_M[ty][k] * ds_N[k][tx];
		}
		__syncthreads();
	}
	//get one value
	C[idy*WIDTH + idx] = sum;
}

实验对比结果:





### CUDA 实现矩阵乘法CUDA中实现高效的矩阵乘法涉及多个方面,包括但不限于线程配置、内存管理以及共享内存的应用。 #### 使用一维和二维线程块进行矩阵乘法 当处理大规模矩阵时,采用二维线程块能够更有效地映射到实际硬件资源上。每个线程负责计算结果矩阵中的单个元素,该过程涉及到读取输入矩阵`A`的一行与矩阵`B`的一列,并逐项相乘求和得到最终的结果[^3]。 对于具体的代码实现,在核函数内部会有一个核心循环用于完成上述操作: ```cpp int row = blockIdx.y * blockDim.y + threadIdx.y; int col = blockIdx.x * blockDim.x + threadIdx.x; float sum = 0.0f; for (int k = 0; k < WIDTH; ++k){ sum += a[row * width + k] * b[k * width + col]; } c[row * width + col] = sum; ``` 这段代码展示了如何在一个特定的位置(row,col)处累积来自两个源矩阵相应位置上的数值乘积,最后将其存储于目标矩阵中相同索引下的单元格里[^1]。 #### 设备端内存分配 为了使数据能够在主机(CPU)与设备(GPU)之间传输并参与运算,需要先利用`cudaMalloc()`函数为待处理的数据集预留足够的空间。这一步骤至关重要,因为只有经过显式声明之后才能确保有足够的连续地址区间供后续加载/卸载操作使用[^4]。 以下是针对三个不同矩阵所作的具体调用实例: ```cpp size_t size = rows * cols * sizeof(float); cudaError_t err; err = cudaMalloc((void**)&d_A, size); // 分配给矩阵 A 的 GPU 存储区 if(err != cudaSuccess){ /* 错误处理 */ } err = cudaMalloc((void**)&d_B, size); // 同样地为 B 做准备... // ... 对 C 进行同样操作 ... ``` #### 利用共享内存优化性能 进一步提升效率的方法之一就是引入共享内存机制。它允许同一线程束内的所有成员快速访问共同使用的临时变量集合而不必每次都去全局范围内寻找。下面是一个基于此概念设计出来的改进版内核入口点定义[^5]: ```cpp __global__ void matrixMulKernelSharedMem(const float* __restrict__ d_M, const float* __restrict__ d_N, float* __restrict__ d_P, int Width) { // 定义局部数组作为共享缓存区域 extern __shared__ float shared_mem[]; // 计算当前线程对应的行列坐标 unsigned int bx = blockIdx.x; unsigned int by = blockIdx.y; unsigned int tx = threadIdx.x; unsigned int ty = threadIdx.y; // 更多逻辑省略... } ``` 以上便是有关CUDA环境下实施高效矩阵乘法的一些基本要点和技术细节说明。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值