基本CUDA C程序在某些条件下崩溃

hal*_*exh 0 c cuda

我正在编写一个基本的CUDA程序,以便更好地理解该语言.我写了一些非常基本的东西,只是并行添加两个向量,并将结果打印到ppm文件.现在,矢量中的值是无关紧要的,因为我计划稍后调整它以产生某种类型的有趣图像.问题是图像的分辨率(实际上是结果向量)导致程序几乎立即崩溃,如果我使它太大.考虑现在的程序:

#include <stdio.h>

#define cols 500
#define rows 50
#define arraySize rows * cols

__global__ void addOnGPU(int *a, int *b, int *c) {
    // Only use data at this index
    int tid = threadIdx.x + blockIdx.x * blockDim.x;

    if (tid < arraySize) c[tid] = a[tid] + b[tid];
}

int main()
{
    FILE *ppm_fp;
    int a[arraySize], b[arraySize], c[arraySize];
    int *dev_a, *dev_b, *dev_c;
    int i, j;
    int threadsperblock = 256;
    int blocks = (arraySize + threadsperblock - 1) / threadsperblock;

    printf("1\n");
    // Allocate memory on GPU for the three vectors
    cudaError_t cudaStatus = cudaMalloc((void **) &dev_a, arraySize * sizeof(int));
    cudaStatus = cudaMalloc((void **) &dev_b, arraySize * sizeof(int));
    cudaStatus = cudaMalloc((void **) &dev_c, arraySize * sizeof(int));
    if (cudaStatus != cudaSuccess) {
        fprintf(stderr, "Unable to allocate memory on the GPU!");
        return 1;
    }

    printf("2\n");
    // Assign values to input vectors
    for (i = 0, j = 0; i < arraySize; i++, j++) {
        a[i] = i;
        b[i] = i * i;
    }

    printf("3\n");
    // Copy input values to allocated vectors in GPU memory
    cudaStatus = cudaMemcpy(dev_a, a, arraySize * sizeof(int), cudaMemcpyHostToDevice);
    cudaStatus = cudaMemcpy(dev_b, b, arraySize * sizeof(int), cudaMemcpyHostToDevice);
    if (cudaStatus != cudaSuccess) {
        fprintf(stderr, "Unable to copy input vectors to the GPU!");
        return 1;
    }

    printf("before\n");
    // Add vectors in parallel and save results in dev_c
    addOnGPU<<<blocks, threadsperblock>>>(dev_a, dev_b, dev_c);
    printf("after\n");

    // Copy results from dev_c to local c vector
    cudaStatus = cudaMemcpy(c, dev_c, arraySize * sizeof(int), cudaMemcpyDeviceToHost);
    if (cudaStatus != cudaSuccess) {
        fprintf(stderr, "Unable to copy input vectors to the GPU!");
        return 1;
    }

    ppm_fp = fopen("image.ppm", "wb");
    fprintf(ppm_fp, "P6\n%d %d\n255\n", cols, rows);
    for (i = 0; i < arraySize; i++) {
        if (i % (3 * cols) == 0) fprintf(ppm_fp, "\n");
        fprintf(ppm_fp, "%d ", c[i]);
    }

    // Display contents of output vector
    for (i = 0; i < arraySize; i++) {
        printf("%d + %d = %d\n", a[i], b[i], c[i]);
    }
    printf("\n");

    // cudaDeviceReset must be called before exiting in order for profiling and
    // tracing tools such as Nsight and Visual Profiler to show complete traces.
    cudaStatus = cudaDeviceReset();
    if (cudaStatus != cudaSuccess) {
        fprintf(stderr, "cudaDeviceReset failed!");
        return 1;
    }

    return 0;
}
Run Code Online (Sandbox Code Playgroud)

就目前而言,程序可以使用cols和rows的值运行.如果我将行增加到500,则程序崩溃.我已经包含了一些调试打印语句,试图找到它崩溃的地方,但是一旦我运行它就会崩溃.我在Visual Studio 2013上运行它(我使用它是新手,并且更熟悉VI,linux和手动编译).我有一个GTX 580 3GB版本,如果这很重要.我知道我无法超越任何内存限制,并且我没有超过可以创建的块的65536(或者是65535)限制,或者每块的512个线程限制.什么是错误的任何想法?

谢谢

Jac*_*ern 5

您观察到的崩溃与CUDA无关,并且是由于C/C++静态数组分配达到了内存限制

int a[arraySize], b[arraySize], c[arraySize];
Run Code Online (Sandbox Code Playgroud)

静态分配的数组被放入具有一般大小限制的存储器堆栈中.由语法动态分配的数组

int* a = (int*)malloc(arraySize*sizeof(int));
Run Code Online (Sandbox Code Playgroud)

因为需要更多内存,所以在程序执行期间通常会增加内存堆.与此相反,由于管理动态内存分配的开销,堆内存比堆栈内存慢.

您可以在Web中找到许多有用的资料,解释堆栈和堆内存之间的差异,例如,请参阅

内存:堆栈与堆

和StackOverflow保护的问题

堆栈和堆的内容和位置是什么?

作为结束语,请允许我说,从帖子的意义上做一个正确的CUDA错误检查总是好的

使用CUDA运行时API检查错误的规范方法是什么?

现在也在CUDA Tag Wiki中提到了这一点.它可能会帮助你自己排除CUDA错误.