小编And*_*ing的帖子

通过图切割使用单点类注释进行分段?

我有一个我试图分割的图像数据集.对于数据集中的每个图像,专家随机选择单个像素/点,并添加类注释,以确定该像素属于哪个类.换句话说,每个图像将标记约60个点:

x,y,class

如何才能最好地利用这些单个像素注释的知识来执行良好的语义分割?

之前曾问过一个类似的问题,回应是使用图形切割:

用python进行图像分割的"硬"监督

理论上的图形切割似乎是一个很好的候选者,但是图形切割可以用单个像素注释工作吗?还有哪些方法可以使用多类数据集?如果是这样,是否有一个很好的库实现或一些好的资源呢?

如果没有,最适合这种情况的方法是什么?我玩了一些随机漫步,但结果分割的边缘定位很差(边缘非常圆).

您可以给予任何帮助,资源或示例非常感谢(最好使用python库,但我可以真正使用任何东西).

编辑:我的数据集有大约10个不同的类,每个图像平均可能有大约5个.注释者不能保证对每个宗教进行注释,但很少会错过一个(一些缺失区域或标记不正确的区域是可以容忍的).每个类对应于纹理均匀的区域,纹理相当恒定(想想天空,泥土,水,山).您无法从单个点获取纹理,但几乎所有区域都应该有多个注释点.

python opencv image-processing computer-vision image-segmentation

12
推荐指数
1
解决办法
382
查看次数

关于膨胀卷积与带填充的最大池化

我一直在阅读论文,通过扩张卷积进行多尺度上下文聚合

在其中,他们建议使用扩张卷积来获得全局上下文,而不是最大池化/下采样,因为池化会缩小您的图像,而扩张卷积则不会。

我的第一个问题是:他们修改了 VGG16 并删除了最后两个最大池化层,但保留了其他 3 个最大池化层。为什么他们不删除所有最大池化层?计算效率?这不会导致图像变小吗?他们如何将其扩展回原始大小,双线性插值?

我的第二个问题是:他们在论文中指出:

“我们还删除了中间特征图的填充。原始分类网络中使用了中间填充,但在密集预测中既不必要也不合理。”

为什么会这样,如果你不填充,你会不会进一步减少我们最终输出的大小,特别是考虑到扩张卷积可以有非常大的感受野?

convolution image-segmentation deep-learning conv-neural-network

5
推荐指数
1
解决办法
2235
查看次数