我尝试学习CUDA。它与 C 非常相似。我尝试在我的 GPU 中运行一些代码。但我认为它并不快,我认为这与我的代码有关。我想只有我 __global__ void func(ull* num1, ull* num2, ull* sum)在 GPU 上工作。这就是我要的。但它并不快。我该怎么办。
typedef uint64_t ull;
#define E1 1
#define E2 5000000000000000
__global__ void func(ull* num1, ull* num2, ull* sum)
{
for (ull i = *num1; i <= *num2; i++)
{
sum[0] += i;
}
}
int main()
{
ull n1 = E1;
ull n2 = E2;
ull sum = 0;
ull* d_n1;
ull* d_n2;
ull* d_sum;
cudaMalloc(&d_n1, sizeof(ull));
cudaMalloc(&d_n2, sizeof(ull));
cudaMalloc(&d_sum, sizeof(ull));
cudaMemcpy(d_n1, &n1, sizeof(ull), cudaMemcpyHostToDevice);
cudaMemcpy(d_n2, &n2, sizeof(ull), cudaMemcpyHostToDevice);
cudaMemcpy(d_sum, &sum, sizeof(ull), cudaMemcpyHostToDevice);
func <<<1,1000>>> (d_n1, d_n2, d_sum);
cudaMemcpy(&sum, d_sum, sizeof(ull), cudaMemcpyDeviceToHost);
std::cout << sum << std::endl;
cudaFree(d_n1);
cudaFree(d_n2);
return 0;
}
Run Code Online (Sandbox Code Playgroud)
GPU 和 CUDA 不是“神奇地让程序变快”的技术。您必须并行化您的算法并使用多个线程。
目前,您的代码将在所有相关内核上的相同内存上执行完全相同的操作,这不仅浪费资源,而且还会绊倒自己的脚,因为所有这些并发内存地址到同一位置会相互损害.
对数组求和也不是“微不足道”的并行操作。您必须拆分和合并任务,递归地工作。
您真的绝对必须了解 GPU 的工作原理以及如何利用它们带来的好处。
| 归档时间: |
|
| 查看次数: |
41 次 |
| 最近记录: |