谁能解释一下为什么一维卷积神经网络有时在表格数据上表现良好(比 DNN 更好)?我在一些已发表的论文(尽管没有提供使用 CNN1D 的原因)、Kaggle 竞赛中看到过这一点,并且还在堆栈溢出中看到了有关表格数据中 CNN 1d 输入形状的问题。(例如:准备向 1D CNN 提供数据)。虽然我知道我们将 CNN 1D 用于序列数据(例如时间序列和 NLP),但将 CNN 1D 用于表格数据背后的直观想法是什么?为什么它有效?是由于特征之间的空间相关性吗?
我正在处理 3D CT 图像,并尝试将二进制分割掩码从 (564,359,359) 调整为 (128,128,128),如下所示:
from skimage.transform import resize
mask_resized= resize(binary_mask, (128, 128, 128), order=0)
Run Code Online (Sandbox Code Playgroud)
调整大小之前的二进制掩码如下所示:
生成的输出不是二进制的(产生 0 和 1 之间的一系列值),并且输出失真如下:
我尝试过image_resized_seg = np.rint(image_resized_seg),但这会为包含分割蒙版的某些切片生成全黑图像。
我也尝试了以下方法,它也给出了扭曲的图像,并且输出中缺少一些包含掩模的切片:
from scipy import ndimage
def resize_volume_mask(img):
"""Resize across z-axis"""
# Set the desired depth
desired_depth = 128
desired_width = 128
desired_height = 128
# Get current depth
current_depth = img.shape[0] #-1
current_width = img.shape[1] #0
current_height = img.shape[2] #1
# Compute depth factor
depth = current_depth / desired_depth
width = current_width …Run Code Online (Sandbox Code Playgroud)