Lon*_*guy 6 python neural-network tensorflow
我在 Alex关于局部响应归一化的论文中遇到了这个方程:

正如我们在上面看到的,在我们计算总和之后,幂会增加,将其与 alpha 相乘,然后添加一次 k。
但是,我在 TensorFlow 文档中看到它显示为
sqr_sum[a, b, c, d] =
sum(input[a, b, c, d - depth_radius : d + depth_radius + 1] ** 2)
output = input / (bias + alpha * sqr_sum ** beta)
Run Code Online (Sandbox Code Playgroud)
其中 Beta 仅针对总和提高。
为什么这里有差异?
此外,当我查看 TensorFlow 代码本身时,我看到了:
output[b, r, c, d] /= (
np.power(bias + alpha * np.sum(patch * patch), beta))
Run Code Online (Sandbox Code Playgroud)
哪个看起来正确?
我在这里有点困惑。有人可以纠正我吗?
小智 2
这是 Tensorflow 文档中的一个错误。
该提交于 2 月 26 日修复: https://github.com/tensorflow/tensorflow/commit/ab48dbd4ac2095548a5bc8505e08e751d409727f#diff-632987400e5affbcdba4533444460b0e
| 归档时间: |
|
| 查看次数: |
488 次 |
| 最近记录: |