为什么局部响应规范纸方程和张量流实现之间存在这种差异?

Lon*_*guy 6 python neural-network tensorflow

我在 Alex关于局部响应归一化的论文中遇到了这个方程: 在此处输入图片说明

正如我们在上面看到的,在我们计算总和之后,幂会增加,将其与 alpha 相乘,然后添加一次 k。

但是,我在 TensorFlow 文档中看到它显示为

sqr_sum[a, b, c, d] =
  sum(input[a, b, c, d - depth_radius : d + depth_radius + 1] ** 2)
output = input / (bias + alpha * sqr_sum ** beta)
Run Code Online (Sandbox Code Playgroud)

其中 Beta 仅针对总和提高。

为什么这里有差异?

此外,当我查看 TensorFlow 代码本身时,我看到了:

output[b, r, c, d] /= (
            np.power(bias + alpha * np.sum(patch * patch), beta))
Run Code Online (Sandbox Code Playgroud)

哪个看起来正确?

我在这里有点困惑。有人可以纠正我吗?