ksm*_*001 2 cuda reduction gpu-programming
虽然我理解了本文中描述的并行缩减背后的逻辑,但我似乎无法在输入数组为1的简单示例中运行它size
.
这是我到目前为止所取得的成就.请记住,我正在使用推力库来管理输入和输出数据.
#include <iostream>
#include <thrust/host_vector.h>
#include <thrust/device_vector.h>
#include <thrust/sort.h>
#include <ctime>
#include <sys/time.h>
#include <sstream>
#include <string>
#include <fstream>
using namespace std;
__global__ void reduce0(int *g_idata, int *g_odata){
extern __shared__ int sdata[];
unsigned int tid = threadIdx.x;
unsigned int i = blockIdx.x*blockDim.x + threadIdx.x;
sdata[tid] = g_idata[i];
__syncthreads();
for(unsigned int s=1; s < blockDim.x; s *= 2) {
if (tid % (2*s) == 0) {
sdata[tid] += sdata[tid + s];
}
__syncthreads();
}
if (tid == 0) g_odata[blockIdx.x] = sdata[0];
}
int main(void){
int size = 10;
thrust::host_vector<int> data_h_i(size, 1);
//initialize the data, all values will be 1
//so the final sum will be equal to 10
int threadsPerBlock = 256;
int totalBlocks = size/threadsPerBlock + 1;
dim3 dimGrid(totalBlocks,1,1);
dim3 dimBlock(threadsPerBlock, 1, 1);
thrust::device_vector<int> data_v_i = data_h_i;
thrust::device_vector<int> data_v_o(size);
int* output = thrust::raw_pointer_cast(data_v_o.data());
int* input = thrust::raw_pointer_cast(data_v_i.data());
reduce0<<<dimGrid, dimBlock>>>(input, output);
data_v_i.clear();
data_v_i.shrink_to_fit();
thrust::host_vector<int> data_h_o = data_v_o;
data_v_o.clear();
data_v_o.shrink_to_fit();
cout<<data_h_o[0]<<endl;
return 0;
}
Run Code Online (Sandbox Code Playgroud)
代码很简单,我创建一个host_vector
大小size
并将所有值初始化为1.
然后我说每个块需要256个线程,并动态查找我的示例所需的块数.
为了简单起见,我只创建一个包含10个值的数组,这意味着我们只需要一个块.因此,一次内核调用就足以产生最终结果.
我的问题如下:
问题1
编译完上面的例子(nvcc -O3 reduction.cu -arch=sm_21
)并输入后,./a.out
我得到以下消息:
terminate called after throwing an instance of 'thrust::system::system_error'
what(): unspecified launch failure
我不确定这里发生了什么,但在我看来,错误来自于线路
sdata[tid] = g_idata[i]
内核是本文中描述的内核的精确副本,因此我不确定需要进行哪些更改才能解决此问题.
问题2
如果我们解决了第一个问题,我们怎样才能使上面的代码适用于任意大小的输入数组?例如,如果我们size
超过256,那么我们至少需要两个块,因此每个块将给出一个输出,然后必须将其与其他块的输出组合.在论文中它说我们需要多次调用内核,但是我不确定如何动态完成.
先感谢您
编辑1:问题1似乎我没有正确分配共享内存的内存.像这样调用内核:reduce0<<<dimGrid, dimBlock, size*sizeof(int)>>>(input, output);
并检查是否tid
超出范围.使代码正常工作.新内核如下:
__global__ void reduce0(int *g_idata, int *g_odata, int size){
extern __shared__ int sdata[];
unsigned int tid = threadIdx.x;
unsigned int i = blockIdx.x*blockDim.x + threadIdx.x;
if(tid<size){
sdata[tid] = g_idata[i];
__syncthreads();
for(unsigned int s=1; s < size; s *= 2) {
if (tid % (2*s) == 0) {
sdata[tid] += sdata[tid + s];
}
__syncthreads();
}
if (tid == 0) g_odata[blockIdx.x] = sdata[0];
}
}
Run Code Online (Sandbox Code Playgroud)
我仍然不确定问题2.
问题1
您的内核使用动态分配的共享内存:
extern __shared__ int sdata[];
...
sdata[tid] = g_idata[i];
Run Code Online (Sandbox Code Playgroud)
但是你没有在内核调用中分配任何动态共享内存:
reduce0<<<dimGrid, dimBlock>>>(input, output);
^
|
missing shared memory parameter.
Run Code Online (Sandbox Code Playgroud)
因此,当您尝试访问共享内存时,会出现内核错误.顺便说一句,你仍然可以对你的内核调用进行cuda错误检查(即使你在其他地方使用推力).
问题2
问题2在Mark的纸非常好回答这里 可以在滑块9的底部,每个块写入它的部分结果来在全局存储器阵列(g_odata []),其存储每块一个结果看到.然后,我们简单地启动另一个与g_odata []操作的类型基本相同的内核,而不是原始输入数据.我们可以连续执行此过程,直到我们的部分结果(例如g_odata [])仅包含256个结果,或者我们在线程块中启动多少个线程.然后,我们可以使用单个线程块对最终结果求和,并生成单个答案值.
示例在此处的cuda示例代码中给出.
这是您的代码的编辑版本,它显示了如何按顺序调用两个内核来处理更大的大小.我不认为这是简化编程的典范,只是对您已编写的内容的简单扩展来说明概念.请注意,整个内核和主代码中存在各种更改,以便于使用内核来处理更大的数据大小.此方法仍然不会超出(threadsPerBlock ^ 2)的数据大小,但它再次只是为了说明按顺序调用多个内核以对部分结果求和的概念,对代码的修改最少.
#include <iostream>
#include <thrust/host_vector.h>
#include <thrust/device_vector.h>
#include <thrust/sort.h>
#include <ctime>
#include <sys/time.h>
#include <sstream>
#include <string>
#include <fstream>
using namespace std;
__global__ void reduce0(int *g_idata, int *g_odata, int size){
extern __shared__ int sdata[];
unsigned int tid = threadIdx.x;
unsigned int i = blockIdx.x*blockDim.x + threadIdx.x;
sdata[tid] = 0;
if(i<size)
sdata[tid] = g_idata[i];
__syncthreads();
for(unsigned int s=1; s < blockDim.x; s *= 2) {
if (tid % (2*s) == 0) {
sdata[tid] += sdata[tid + s];
}
__syncthreads();
}
if (tid == 0) g_odata[blockIdx.x] = sdata[0];
}
int main(void){
int size = 40000;
thrust::host_vector<int> data_h_i(size, 1);
//initialize the data, all values will be 1
//so the final sum will be equal to size
int threadsPerBlock = 256;
int totalBlocks = (size+(threadsPerBlock-1))/threadsPerBlock;
thrust::device_vector<int> data_v_i = data_h_i;
thrust::device_vector<int> data_v_o(totalBlocks);
int* output = thrust::raw_pointer_cast(data_v_o.data());
int* input = thrust::raw_pointer_cast(data_v_i.data());
reduce0<<<totalBlocks, threadsPerBlock, threadsPerBlock*sizeof(int)>>>(input, output, size);
reduce0<<<1, threadsPerBlock, threadsPerBlock*sizeof(int)>>>(output, input, totalBlocks);
data_v_o[0] = data_v_i[0];
data_v_i.clear();
data_v_i.shrink_to_fit();
thrust::host_vector<int> data_h_o = data_v_o;
data_v_o.clear();
data_v_o.shrink_to_fit();
cout<<data_h_o[0]<<endl;
return 0;
}
Run Code Online (Sandbox Code Playgroud)