C++/CUDA:动态计算最大网格大小和块大小

C++/CUDA: Calculating maximum gridSize and blockSize dynamically

本文关键字:网格 计算 CUDA 动态 C++      更新时间:2023-10-16

我想找到一种方法来动态计算计算所需的网格和块大小。 我遇到了一个问题,即从线程限制的角度来看,我想要处理的问题太大了,无法在 GPU 的单次运行中处理。 这是一个示例内核设置,它遇到了我遇到的错误:

__global__ void populateMatrixKernel(char * outMatrix, const int pointsToPopulate)
{
int i = blockIdx.x * blockDim.x + threadIdx.x;
if (i < pointsToPopulate)
{
outMatrix[i] = 'A';
}
}
cudaError_t populateMatrixCUDA(char * outMatrix, const int pointsToPopulate, cudaDeviceProp &deviceProp)
{
//Device arrays to be used
char * dev_outMatrix = 0;
cudaError_t cudaStatus;
//THIS IS THE CODE HERE I'M WANTING TO REPLACE
//Calculate the block and grid parameters
auto gridDiv = div(pointsToPopulate, deviceProp.maxThreadsPerBlock);
auto gridX = gridDiv.quot;
if (gridDiv.rem != 0)
gridX++;  //Round up if we have stragling points to populate
auto blockSize = deviceProp.maxThreadsPerBlock;
int gridSize = min(16 * deviceProp.multiProcessorCount, gridX);
//END REPLACE CODE
//Allocate GPU buffers
cudaStatus = cudaMalloc((void**)&dev_outMatrix, pointsToPopulate * sizeof(char));
if (cudaStatus != cudaSuccess)
{
cerr << "cudaMalloc failed!" << endl;
goto Error;
}
populateMatrixKernel << <gridSize, blockSize >> > (dev_outMatrix, pointsToPopulate);
//Check for errors launching the kernel
cudaStatus = cudaGetLastError();
if (cudaStatus != cudaSuccess)
{
cerr << "Population launch failed: " << cudaGetErrorString(cudaStatus) << endl;
goto Error;
}
//Wait for threads to finish
cudaStatus = cudaDeviceSynchronize();
if (cudaStatus != cudaSuccess) {
cerr << "cudaDeviceSynchronize returned error code " << cudaStatus << " after launching visit and bridger analysis kernel!" << endl;
cout << "Cuda failure " << __FILE__ << ":" << __LINE__ << " '" << cudaGetErrorString(cudaStatus);
goto Error;
}
//Copy output to host memory
cudaStatus = cudaMemcpy(outMatrix, dev_outMatrix, pointsToPopulate * sizeof(char), cudaMemcpyDeviceToHost);
if (cudaStatus != cudaSuccess) {
cerr << "cudaMemcpy failed!" << endl;
goto Error;
}
Error:
cudaFree(dev_outMatrix);
return cudaStatus;
}

现在,当我使用以下测试设置测试此代码时:

//Make sure we can use the graphics card (This calculation would be unresonable otherwise)
if (cudaSetDevice(0) != cudaSuccess) {
cerr << "cudaSetDevice failed!  Do you have a CUDA-capable GPU installed?" << endl;
}
cudaDeviceProp deviceProp;
cudaError_t cudaResult;
cudaResult = cudaGetDeviceProperties(&deviceProp, 0);
if (cudaResult != cudaSuccess)
{
cerr << "cudaGetDeviceProperties failed!" << endl;
}

int pointsToPopulate = 250000 * 300;
auto gpuMatrix = new char[pointsToPopulate];
fill(gpuMatrix, gpuMatrix + pointsToPopulate, 'B');
populateMatrixCUDA(gpuMatrix, pointsToPopulate, deviceProp);
for (int i = 0; i < pointsToPopulate; ++i)
{
if (gpuMatrix[i] != 'A')
{
cout << "ERROR: " << i << endl;
cin.get();
}
}

我在 i=81920 处收到错误。 此外,如果我检查执行前后的内存,81920 之后的所有内存值都从"B"变为 null。 此错误似乎源于内核执行参数代码中的这一行:

int gridSize = min(16 * deviceProp.multiProcessorCount, gridX);

对于我的显卡(GTX 980M),我得到deviceProp.multiProcessorCount的值为5,如果我将其乘以16和1024(对于每个网格的最大块),我得到81920。 看起来,虽然我在内存空间方面很好,但我被我可以运行多少线程所窒息。 现在,这个 16 只是被设置为任意值(在查看了我朋友制作的一些示例代码后),我想知道是否有办法根据 GPU 属性实际计算"16 应该是什么"而不是任意设置它。 我想编写一个迭代代码,能够确定在某个时间点能够执行的最大计算量,然后相应地逐段填充矩阵,但我需要知道最大计算值才能执行此操作。 有谁知道计算这些参数的方法? 如果需要更多信息,我很乐意提供帮助。 谢谢!

您发布的代码基本上没有任何问题。这可能接近最佳实践。但它与内核的设计习惯不兼容。

正如你在这里看到的,你的GPU能够运行2^31 - 1或2147483647块。因此,您可以将有问题的代码更改为:

unsigned int gridSize = min(2147483647u, gridX);

它应该可以工作。更好的是,根本不要更改该代码,而是将内核更改为如下所示的内容:

__global__ void populateMatrixKernel(char * outMatrix, const int pointsToPopulate)
{
int i = blockIdx.x * blockDim.x + threadIdx.x;
for(; i < pointsToPopulate; i += blockDim.x * gridDim.x)
{
outMatrix[i] = 'A';
}
}

这样,您的内核将为每个线程发出多个输出,并且所有内容都应该按预期工作。