///****测试在kernel里面交换全局内存的值
#include<iostream>
#include<cuda.h>
#include<cuda_runtime.h>
#include<time.h>
using namespace std;
const int N=300;
__global__ void show(int* a)
{
for(int i=blockIdx.x*blockDim.x+threadIdx.x;i<N+blockDim.x*gridDim.x;
i+=blockDim.x*gridDim.x)
{
if(i<N)
{
printf("%d ",a[i]);
/*a[i]++;*/
if(i%60==0)
printf("\n\n\n");
}
}
}
int main(void)
{
#include<iostream>
#include<cuda.h>
#include<cuda_runtime.h>
#include<time.h>
using namespace std;
const int N=300;
__global__ void show(int* a)
{
for(int i=blockIdx.x*blockDim.x+threadIdx.x;i<N+blockDim.x*gridDim.x;
i+=blockDim.x*gridDim.x)
{
if(i<N)
{
printf("%d ",a[i]);
/*a[i]++;*/
if(i%60==0)
printf("\n\n\n");
}
}
}
int main(void)
{

本文深入探讨GPU的线程运行机制,包括其并行执行的特点,如何组织线程块与线程,以及kernel在GPU上的调度与执行过程。
最低0.47元/天 解锁文章
3183

被折叠的 条评论
为什么被折叠?



