CUDA使用二级指针表示二维数组

部署运行你感兴趣的模型镜像

首先看下我们在CPU上是如何用二级指针表示二维数组的,其实就两点:一是用一级指针保存数据,二是用二级指针去按行索引数据位置。关于一级指针和二级指针的内存分配这里不讲了,注意数据类型就可以了。

代码做了相关说明,应该比较好理解:

#define Row  8
#define Col 4

       //声明Row个行指针: cpuA cpuA+0  cpuA+1 cpuA+Row
	int **cpuA = (int **)malloc(Row * sizeof(int*));
	int *cpudataA = (int*)malloc(Row*Col * sizeof(int));
	//cpuA[i] 看作行指针
	for (int i = 0; i < Row; i++) {
		cpuA[i] = cpudataA + Col*i;
	}
	//数据赋值
	for (int i = 0; i < Row*Col; i++) {
		cpudataA[i] = i;
	}
	//按照二维数组形式索引数据
	for (int i = 0; i < Row; i++) {
		for (int j = 0; j < Col; j++) {
			printf("%5d", cpuA[i][j]);
		}
		printf("\n");
	}

然后对应我们在GPU上使用二级指针,整体上其实和CPU没有多大区别,把二级指针和一级指针保存的数据 传送到设备上去,然后在设备上建立二级指针和一级指针的对应关系。目的就是让二级指针能够指到对应的数据位置。

这里简单了画了个示意图:


GPU代码如下;

#include "cuda_runtime.h"
#include "device_launch_parameters.h"

#include <stdio.h>
#include <math.h>
#define Row  8
#define Col 4


__global__ void addKernel(int **C,  int **A)
{
	int idx = threadIdx.x + blockDim.x * blockIdx.x;
	int idy = threadIdx.y + blockDim.y * blockIdx.y;
	if (idx < Col && idy < Row) {
		C[idy][idx] = A[idy][idx] + 10;
	}
}

int main()
{
	int **A = (int **)malloc(sizeof(int*) * Row);
	int **C = (int **)malloc(sizeof(int*) * Row);
	int *dataA = (int *)malloc(sizeof(int) * Row * Col);
	int *dataC = (int *)malloc(sizeof(int) * Row * Col);
	int **d_A;
	int **d_C;
	int *d_dataA;
	int *d_dataC;
    //malloc device memory
	cudaMalloc((void**)&d_A, sizeof(int **) * Row);
	cudaMalloc((void**)&d_C, sizeof(int **) * Row);
	cudaMalloc((void**)&d_dataA, sizeof(int) *Row*Col);
	cudaMalloc((void**)&d_dataC, sizeof(int) *Row*Col);
	//set value
	for (int i = 0; i < Row*Col; i++) {
		dataA[i] = i+1;
	}
	//将主机指针A指向设备数据位置,目的是让设备二级指针能够指向设备数据一级指针
	//A 和  dataA 都传到了设备上,但是二者还没有建立对应关系
	for (int i = 0; i < Row; i++) {
		A[i] = d_dataA + Col * i;
		C[i] = d_dataC + Col * i;
	}
	
	cudaMemcpy(d_A, A, sizeof(int*) * Row, cudaMemcpyHostToDevice);
	cudaMemcpy(d_C, C, sizeof(int*) * Row, cudaMemcpyHostToDevice);
	cudaMemcpy(d_dataA, dataA, sizeof(int) * Row * Col, cudaMemcpyHostToDevice);
	dim3 threadPerBlock(4, 4);
	dim3 blockNumber( (Col + threadPerBlock.x - 1)/ threadPerBlock.x, (Row + threadPerBlock.y - 1) / threadPerBlock.y );
	printf("Block(%d,%d)   Grid(%d,%d).\n", threadPerBlock.x, threadPerBlock.y, blockNumber.x, blockNumber.y);
	addKernel << <blockNumber, threadPerBlock >> > (d_C, d_A);
	//拷贝计算数据-一级数据指针
	cudaMemcpy(dataC, d_dataC, sizeof(int) * Row * Col, cudaMemcpyDeviceToHost);

	for (int i = 0; i < Row*Col; i++) {
		if (i%Col == 0) {
			printf("\n");
		}
		printf("%5d", dataC[i]);
	}
	printf("\n");
    
}


实验结果:




您可能感兴趣的与本文相关的镜像

Wan2.2-I2V-A14B

Wan2.2-I2V-A14B

图生视频
Wan2.2

Wan2.2是由通义万相开源高效文本到视频生成模型,是有​50亿参数的轻量级视频生成模型,专为快速内容创作优化。支持480P视频生成,具备优秀的时序连贯性和运动推理能力

### 如何在 CUDA 中展平数组 在 CUDA 编程中,“展平”通常指的是将一个多维数组转换为一维数组。这种操作对于矩阵运算或者数据传输非常常见。以下是关于如何实现这一功能的具体说明。 #### 展平多维数组的方法 在 CUDA 或者基于 CUDA 的框架(如 PyTorch 和 NumPy)中,可以利用内存布局的知识来完成数组的展平操作。CUDA 默认采用列优先存储方式 (column-major),而 Python 数组通常是按行优先存储 (row-major)[^1]。因此,在处理展平时需要注意这两者的差异。 如果是在纯 CUDA 环境下工作,则可以直接通过指针访问连续分配的一段显存区域作为目标缓冲区,并手动计算偏移量映射原始二维索引至线性地址上: ```cpp // 假设 d_input 是指向设备上的二维数组首元素的指针, // rows 表示行数,cols 列数。 __global__ void flattenKernel(const float* __restrict__ d_input, int rows, int cols, float *d_output){ unsigned idx = blockIdx.x * blockDim.x + threadIdx.x; if(idx < rows * cols){ // 将输入中的第 i,j 位置的数据写入输出向量对应的位置 k=i+j*rows; d_output[idx]=d_input[(idx % rows)+((int)(idx/rows))*cols]; } } ``` 当使用高级接口比如 cuBLAS 进行数值计算时,由于其内部函数期望接收的是按照特定顺序排列好的矢量参数,所以有时还需要额外调用转置等相关预处理步骤。 而对于更现代化的工作流程——例如结合 Python 使用 Numba JIT 编译器加速自定义逻辑或是直接依赖于深度学习库封装的功能,则往往无需关心底层细节即可轻松达成目的: - **Numpy**: `arr.flatten()` 方法会返回一个新的扁平化副本,默认沿 C 风格展开即逐行读取整个表项形成单列表达形式;另有 `.ravel()` 提供视图模式选项节省空间开销但不改变原对象结构。 - **Pytorch Tensor Operations**: 参考给定样例代码片段可知,构建好初始嵌套列表之后传递给工厂类方法 torch.tensor() 即可获得相应维度描述符 shape 属性值展示整体规模概况[^3]. 若要获取拉直版本只需简单附加 .view(-1) 调用来指示系统自动推断所需长度填充未知轴尺寸占位符处即可. 最后值得注意一点就是针对某些特殊场景可能涉及到第三方扩展包安装兼容性问题解决方案提示信息也已包含其中可供查阅参考调整环境配置确保顺利运行相关特性支持[^4]. ```python import numpy as np from numba import cuda host_data=np.array([[1.,2.],[3.,4.]]) device_array=cuda.to_device(host_data) flattened=device_array.copy_to_host().flatten() print(flattened) ```
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值