Cuda GPU 编译,我认为它没有使用 GPU

-4 c++ cuda gpu gpgpu nvidia

我尝试学习CUDA。它与 C 非常相似。我尝试在我的 GPU 中运行一些代码。但我认为它并不快,我认为这与我的代码有关。我想只有我 __global__ void func(ull* num1, ull* num2, ull* sum)在 GPU 上工作。这就是我要的。但它并不快。我该怎么办。

typedef uint64_t ull;

#define E1 1
#define E2 5000000000000000

__global__ void func(ull* num1, ull* num2, ull* sum)
{
    for (ull i = *num1; i <= *num2; i++)
    {
        sum[0] += i;
    }
}

int main()
{
    ull n1 = E1;
    ull n2 = E2;
    ull sum = 0;

    ull* d_n1;
    ull* d_n2;
    ull* d_sum;

    cudaMalloc(&d_n1, sizeof(ull));
    cudaMalloc(&d_n2, sizeof(ull));
    cudaMalloc(&d_sum, sizeof(ull));

    cudaMemcpy(d_n1, &n1, sizeof(ull), cudaMemcpyHostToDevice);
    cudaMemcpy(d_n2, &n2, sizeof(ull), cudaMemcpyHostToDevice);
    cudaMemcpy(d_sum, &sum, sizeof(ull), cudaMemcpyHostToDevice);

    func <<<1,1000>>> (d_n1, d_n2, d_sum);

    cudaMemcpy(&sum, d_sum, sizeof(ull), cudaMemcpyDeviceToHost);

    std::cout << sum << std::endl;

    cudaFree(d_n1);
    cudaFree(d_n2);


    return 0;
}
Run Code Online (Sandbox Code Playgroud)

dat*_*olf 5

GPU 和 CUDA 不是“神奇地让程序变快”的技术。您必须并行化您的算法并使用多个线程。

目前,您的代码将在所有相关内核上的相同内存上执行完全相同的操作,这不仅浪费资源,而且还会绊倒自己的脚,因为所有这些并发内存地址到同一位置会相互损害.

对数组求和也不是“微不足道”的并行操作。您必须拆分和合并任务,递归地工作。

您真的绝对必须了解 GPU 的工作原理以及如何利用它们带来的好处。

  • @MuhammedYaşar:抱歉,除了诚实之外我还能提供什么?问题的解决方案是正确并行化求和操作。StackOverflow 不是免费的代码编写服务。至于 GPU 上的并行求和,已经写了很多东西。我的意思是,如果我在 Google 中输入“GPU 并行总和”,我会得到以下结果:https://developer.nvidia.com/gpugems/gpugems3/part-vi-gpu-computing/chapter-39-parallel-prefix-sum-scan -cuda (2认同)