Hen*_*all 3 linux gpgpu nvidia opencl pyopencl
我有一个nvidia GTX 750 Ti卡,它被宣传为具有640个CUDA核心.实际上,nvidia设置应用程序也报告了这一点.
我正在尝试使用此卡在Linux上进行OpenCL开发.现在,我已经从OpenCL环境(通过PyOpenCL,如果它有所作为)报告计算单元的数量是5.我的理解是nvidia设备上的一个计算单元映射到一个多处理器,我理解为32 SIMD单位(我假设是CUDA核心).
显然,5*32不是640(相当于预期的四分之一).
我是否遗漏了有关nvidia工作单位含义的内容?该卡还驱动图形输出,它将使用一些计算能力 - 是为图形使用保留的处理能力的一部分?(如果是的话,我可以改变吗?).
NVIDIA有一张NVIDIA GeForce GTX 750 Ti的白皮书,值得一读.
OpenCL计算单元转换为NVIDIA GPU术语中的流式多处理器.GPU中的每个Maxwell SMM都包含128个处理元素("CUDA核心") - 和128*5 = 640
.设备的SIMD宽度仍为32,但每个计算单元(SMM)可以一次向四个不同的经线发出指令.