小编pai*_*ime的帖子

(Convolution + PixelShuffle) 与 SubPixel 卷积相同吗?

我正在研究 ArXiV 论文Is the devolving layer is the same as a CNNal? 。主题是通过放大因子r,将张量x从形状(N, C, H, W)上采样到形状(N, C, H*r, W*r)

在那篇论文中,他们介绍了以下两种方法之间的等效性(重点是第二个方法应该比第一个方法更具计算效率):

  • SubPixel方法:创建子像素图像,然后在子像素空间中与形状核进行卷积(C, C, Hk * r, Wk * r)
  • PixelShuffle方法:与kernel卷积(C * r * r, C, Hk, Wk),然后周期性洗牌

这些方法如本文的图 6 和图 7 所示,我在下面复制并动画化了这些方法,以突出我对等价声明的质疑。数字之后是pytorch支持这些询问的实现。

问题

我错过了什么还是以下内容是正确的?:

  1. 子像素输出尺寸:
    • SubPixel 方法给出的输出图像的大小(6, 6)(8, 8)图中所示的不同。
    • SubPixel 方法可以通过(8, 8)在子像素空间中添加更多填充来给出一定大小的输出图像,但输出图像的最后一行和最后一列都充满零。
  2. 除了“紫色”像素之外,两个输出图像之间的值存在空间偏移:
    • 紫色像素对齐
    • 蓝色像素在暗 W 上移动
    • 绿色像素在暗 H …

conv-neural-network pytorch

8
推荐指数
0
解决办法
1492
查看次数

标签 统计

conv-neural-network ×1

pytorch ×1