Dan*_*son 5 cuda nsight-compute
我正在学习__shared__CUDA 中的内存,我对 Nsight Compute 如何显示共享内存统计信息感到困惑。
我正在阅读这篇文章(代码可在 Nvidia 的 github 上找到,但复制在下面以供参考)。
#include <stdio.h>
__global__ void staticReverse(int *d, int n)
{
__shared__ int s[64];
int t = threadIdx.x;
int tr = n-t-1;
s[t] = d[t];
__syncthreads();
d[t] = s[tr];
}
__global__ void dynamicReverse(int *d, int n)
{
extern __shared__ int s[];
int t = threadIdx.x;
int tr = n-t-1;
s[t] = d[t];
__syncthreads();
d[t] = s[tr];
}
int main(void)
{
const int n = 64;
int a[n], r[n], d[n];
for (int i = 0; i < n; i++) {
a[i] = i;
r[i] = n-i-1;
d[i] = 0;
}
int *d_d;
cudaMalloc(&d_d, n * sizeof(int));
// run version with static shared memory
cudaMemcpy(d_d, a, n*sizeof(int), cudaMemcpyHostToDevice);
staticReverse<<<1,n>>>(d_d, n);
cudaMemcpy(d, d_d, n*sizeof(int), cudaMemcpyDeviceToHost);
for (int i = 0; i < n; i++)
if (d[i] != r[i]) printf("Error: d[%d]!=r[%d] (%d, %d)\n", i, i, d[i], r[i]);
// run dynamic shared memory version
cudaMemcpy(d_d, a, n*sizeof(int), cudaMemcpyHostToDevice);
dynamicReverse<<<1,n,n*sizeof(int)>>>(d_d, n);
cudaMemcpy(d, d_d, n * sizeof(int), cudaMemcpyDeviceToHost);
for (int i = 0; i < n; i++)
if (d[i] != r[i]) printf("Error: d[%d]!=r[%d] (%d, %d)\n", i, i, d[i], r[i]);
}
Run Code Online (Sandbox Code Playgroud)
当我运行 Nsight Compute 时,我看到以下staticReverse内核图表(dynamicReverse内核几乎相同):
问题1:图表显示1个请求到共享内存和1个请求来自共享内存,但为什么它也显示0个共享内存指令?请求不算作指令吗?从这个图表的角度来看,什么算作共享内存指令?
接下来,在源视图中,Nsight Compute 显示各种指标的逐行计数:
问题 2:为什么第 8 行和第 10 行的“Memory L1 Transactions Shared”显示为 0?我期待看到:
问题 3:为什么第 8 行和第 10 行各有 8 个内存事务?
我的系统:
小智 2
如果您可以检查(并在此处显示)源页面的低级 SASS 视图以及高级 CUDA-C 视图,那就太好了。源指标按 SASS(汇编)指令收集,然后在 CUDA-C 视图中聚合。检查实际的程序集可以提供有关编译器生成的指令类型的信息,并且可以更好地解释您所看到的数据。
请求不算指令吗?从这张图来看,什么算作共享内存指令?
请求和指示不是一回事。指令是实际执行的 SASS 汇编指令。请求是由硬件作为执行指令的结果而生成的,请求的数量可能会根据代码的行为情况而变化。