Tri*_*leS -1 performance cuda gpu gpgpu
我正在寻找一种在CUDA内核中传递多个重复参数的优雅方法,
众所周知,每个内核参数都位于每个CUDA线程的堆栈中,因此,内核传递给每个线程的参数之间可能存在重复,每个线程都位于每个堆栈上.
为了最大限度地减少传递的重复参数的数量,我正在寻找一种优雅的方式.
为了解释我的担忧:假设我的代码如下:
kernelFunction<<<gridSize,blockSize>>>(UINT imageWidth, UINT imageWidth, UINT imageStride, UINT numberOfElements,x,y,ect...)
Run Code Online (Sandbox Code Playgroud)
UINT imageWidth,UINT imageWidth,UINT imageStride,UINT numberOfElements参数位于每个线程库存中,
我正在寻找一个技巧来发送更少的参数并从其他来源访问数据.
我正在考虑使用常量内存,但由于常量内存位于全局,因此我将其删除.不用说内存位置应该很快.
任何帮助,将不胜感激.