如何使用嵌套for循环添加两个2d(音调)数组?

如何使用嵌套for循环添加两个2d(音调)数组?

我是cuda的新手。我想将两个2d数组加到第三个数组中。我使用以下代码:

cudaMallocPitch((void**)&device_a, &pitch, 2*sizeof(int),2);cudaMallocPitch((void**)&device_b, &pitch, 2*sizeof(int),2);cudaMallocPitch((void**)&device_c, &pitch, 2*sizeof(int),2);

现在我的问题是我不想在我的内核代码中使用这些数组作为扁平的二维数组我希望di使用两个for循环并将结果放在第三个数组中

__global__ void add(int *dev_a ,int *dev_b,int* dec_c){
    for i=0;i<2;i++)
    { 
      for j=0;j<2;j++)
      {
        dev_c[i][j]=dev_a[i][j]+dev_b[i][j];
      }
    }}

我怎么能在CUDA做到这一点?请告诉我如何以这种方式使用二维阵列?

使用2d-array的内核调用应该是什么?如果可能,请使用代码示例进行说明。


跃然一笑
浏览 422回答 2
2回答

RISEBY

简短的回答是,你做不到。该cudaMallocPitch()函数正如其名称所暗示的那样,它分配了音调线性内存,其中音调被选择为GPU内存控制器和纹理硬件的最佳选择。如果你想在内核中使用指针数组,那么内核代码必须如下所示:__global___&nbsp;void&nbsp;add(int&nbsp;*dev_a[]&nbsp;,int&nbsp;*dev_b[],&nbsp;int*&nbsp;dec_c[]){ &nbsp;&nbsp;&nbsp;&nbsp;for&nbsp;i=0;i<2;i++)&nbsp;{&nbsp; &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;for&nbsp;j=0;j<2;j++)&nbsp;{ &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;dev_c[i][j]=dev_a[i][j]+dev_b[i][j]; &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;} &nbsp;&nbsp;&nbsp;&nbsp;}}然后你需要cudaMalloc在主机端进行嵌套调用来构造指针数组并将其复制到设备内存中。对于相当简单的2x2示例,分配单个数组的代码如下所示:int&nbsp;**&nbsp;h_a&nbsp;=&nbsp;(int&nbsp;**)malloc(2&nbsp;*&nbsp;sizeof(int&nbsp;*));cudaMalloc((void**)&h_a[0],&nbsp;2*sizeof(int));cudaMalloc((void**)&h_a[1],&nbsp;2*sizeof(int));int&nbsp;**d_a;cudaMalloc((void&nbsp;***)&d_a,&nbsp;2&nbsp;*&nbsp;sizeof(int&nbsp;*));cudaMemcpy(d_a,&nbsp;h_a,&nbsp;2*sizeof(int&nbsp;*),&nbsp;cudaMemcpyHostToDevice);这将在d_a中保留指定的指针设备数组,并将其传递给内核。出于代码复杂性和性能原因,您实际上不希望这样做,使用CUDA代码中的指针数组比使用线性内存的替代方案更难和更慢。要在CUDA中显示使用指针数组的愚蠢行为,这里是一个完整的示例问题示例,它结合了上述两个想法:#include&nbsp;<cstdio>__global__&nbsp;void&nbsp;add(int&nbsp;*&nbsp;dev_a[],&nbsp;int&nbsp;*&nbsp;dev_b[],&nbsp;int&nbsp;*&nbsp;dev_c[]){ &nbsp;&nbsp;&nbsp;&nbsp;for(int&nbsp;i=0;i<2;i++) &nbsp;&nbsp;&nbsp;&nbsp;{&nbsp; &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;for(int&nbsp;j=0;j<2;j++) &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;{ &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;dev_c[i][j]=dev_a[i][j]+dev_b[i][j]; &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;} &nbsp;&nbsp;&nbsp;&nbsp;}}inline&nbsp;void&nbsp;GPUassert(cudaError_t&nbsp;code,&nbsp;char&nbsp;*&nbsp;file,&nbsp;int&nbsp;line,&nbsp;bool&nbsp;Abort=true){ &nbsp;&nbsp;&nbsp;&nbsp;if&nbsp;(code&nbsp;!=&nbsp;0)&nbsp;{ &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;fprintf(stderr,&nbsp;"GPUassert:&nbsp;%s&nbsp;%s&nbsp;%d\n",&nbsp;cudaGetErrorString(code),file,line); &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;if&nbsp;(Abort)&nbsp;exit(code); &nbsp;&nbsp;&nbsp;&nbsp;}&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;}#define&nbsp;GPUerrchk(ans)&nbsp;{&nbsp;GPUassert((ans),&nbsp;__FILE__,&nbsp;__LINE__);&nbsp;}int&nbsp;main(void){ &nbsp;&nbsp;&nbsp;&nbsp;const&nbsp;int&nbsp;aa[2][2]={{1,2},{3,4}}; &nbsp;&nbsp;&nbsp;&nbsp;const&nbsp;int&nbsp;bb[2][2]={{5,6},{7,8}}; &nbsp;&nbsp;&nbsp;&nbsp;int&nbsp;cc[2][2]; &nbsp;&nbsp;&nbsp;&nbsp;int&nbsp;**&nbsp;h_a&nbsp;=&nbsp;(int&nbsp;**)malloc(2&nbsp;*&nbsp;sizeof(int&nbsp;*)); &nbsp;&nbsp;&nbsp;&nbsp;for(int&nbsp;i=0;&nbsp;i<2;i++){ &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;GPUerrchk(cudaMalloc((void**)&h_a[i],&nbsp;2*sizeof(int))); &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;GPUerrchk(cudaMemcpy(h_a[i],&nbsp;&aa[i][0],&nbsp;2*sizeof(int),&nbsp;cudaMemcpyHostToDevice)); &nbsp;&nbsp;&nbsp;&nbsp;} &nbsp;&nbsp;&nbsp;&nbsp;int&nbsp;**d_a; &nbsp;&nbsp;&nbsp;&nbsp;GPUerrchk(cudaMalloc((void&nbsp;***)&d_a,&nbsp;2&nbsp;*&nbsp;sizeof(int&nbsp;*))); &nbsp;&nbsp;&nbsp;&nbsp;GPUerrchk(cudaMemcpy(d_a,&nbsp;h_a,&nbsp;2*sizeof(int&nbsp;*),&nbsp;cudaMemcpyHostToDevice)); &nbsp;&nbsp;&nbsp;&nbsp;int&nbsp;**&nbsp;h_b&nbsp;=&nbsp;(int&nbsp;**)malloc(2&nbsp;*&nbsp;sizeof(int&nbsp;*)); &nbsp;&nbsp;&nbsp;&nbsp;for(int&nbsp;i=0;&nbsp;i<2;i++){ &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;GPUerrchk(cudaMalloc((void**)&h_b[i],&nbsp;2*sizeof(int))); &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;GPUerrchk(cudaMemcpy(h_b[i],&nbsp;&bb[i][0],&nbsp;2*sizeof(int),&nbsp;cudaMemcpyHostToDevice)); &nbsp;&nbsp;&nbsp;&nbsp;} &nbsp;&nbsp;&nbsp;&nbsp;int&nbsp;**&nbsp;d_b; &nbsp;&nbsp;&nbsp;&nbsp;GPUerrchk(cudaMalloc((void&nbsp;***)&d_b,&nbsp;2&nbsp;*&nbsp;sizeof(int&nbsp;*))); &nbsp;&nbsp;&nbsp;&nbsp;GPUerrchk(cudaMemcpy(d_b,&nbsp;h_b,&nbsp;2*sizeof(int&nbsp;*),&nbsp;cudaMemcpyHostToDevice)); &nbsp;&nbsp;&nbsp;&nbsp;int&nbsp;**&nbsp;h_c&nbsp;=&nbsp;(int&nbsp;**)malloc(2&nbsp;*&nbsp;sizeof(int&nbsp;*)); &nbsp;&nbsp;&nbsp;&nbsp;for(int&nbsp;i=0;&nbsp;i<2;i++){ &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;GPUerrchk(cudaMalloc((void**)&h_c[i],&nbsp;2*sizeof(int))); &nbsp;&nbsp;&nbsp;&nbsp;} &nbsp;&nbsp;&nbsp;&nbsp;int&nbsp;**&nbsp;d_c; &nbsp;&nbsp;&nbsp;&nbsp;GPUerrchk(cudaMalloc((void&nbsp;***)&d_c,&nbsp;2&nbsp;*&nbsp;sizeof(int&nbsp;*))); &nbsp;&nbsp;&nbsp;&nbsp;GPUerrchk(cudaMemcpy(d_c,&nbsp;h_c,&nbsp;2*sizeof(int&nbsp;*),&nbsp;cudaMemcpyHostToDevice)); &nbsp;&nbsp;&nbsp;&nbsp;add<<<1,1>>>(d_a,d_b,d_c); &nbsp;&nbsp;&nbsp;&nbsp;GPUerrchk(cudaPeekAtLastError()); &nbsp;&nbsp;&nbsp;&nbsp;for(int&nbsp;i=0;&nbsp;i<2;i++){ &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;GPUerrchk(cudaMemcpy(&cc[i][0],&nbsp;h_c[i],&nbsp;2*sizeof(int),&nbsp;cudaMemcpyDeviceToHost)); &nbsp;&nbsp;&nbsp;&nbsp;} &nbsp;&nbsp;&nbsp;&nbsp;for(int&nbsp;i=0;i<2;i++)&nbsp;{ &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;for(int&nbsp;j=0;j<2;j++)&nbsp;{ &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;printf("(%d,%d):%d\n",i,j,cc[i][j]); &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;} &nbsp;&nbsp;&nbsp;&nbsp;} &nbsp;&nbsp;&nbsp;&nbsp;return&nbsp;cudaThreadExit();}我建议你研究它,直到你理解它的作用,以及与使用线性记忆相比,它为什么这么糟糕。
打开App,查看更多内容
随时随地看视频慕课网APP