And*_*ing 5 convolution image-segmentation deep-learning conv-neural-network
我一直在阅读论文,通过扩张卷积进行多尺度上下文聚合。
在其中,他们建议使用扩张卷积来获得全局上下文,而不是最大池化/下采样,因为池化会缩小您的图像,而扩张卷积则不会。
我的第一个问题是:他们修改了 VGG16 并删除了最后两个最大池化层,但保留了其他 3 个最大池化层。为什么他们不删除所有最大池化层?计算效率?这不会导致图像变小吗?他们如何将其扩展回原始大小,双线性插值?
我的第二个问题是:他们在论文中指出:
“我们还删除了中间特征图的填充。原始分类网络中使用了中间填充,但在密集预测中既不必要也不合理。”
为什么会这样,如果你不填充,你会不会进一步减少我们最终输出的大小,特别是考虑到扩张卷积可以有非常大的感受野?
| 归档时间: |
|
| 查看次数: |
2235 次 |
| 最近记录: |