看了几篇帖子/文章,对CNN下采样后的上采样机制有些疑惑。
我从这个问题中得到了第一个答案:https : //www.quora.com/How-do-fully-convolutional-networks-upsample-their-coarse-output
据我所知,类似于普通的卷积操作,“上采样”也使用需要训练的内核。
问题1:如果在CNN的第一阶段已经丢失了“空间信息”,那无论如何如何重新构建?
问题2:为什么>“从网络深处的小(粗)特征图上采样具有良好的语义信息但分辨率较差。从更接近输入的较大特征图上采样,会产生更好的细节但会产生更差的语义信息”?
我使用了以下简单代码:
import numpy as np
from PIL import Image
import matplotlib.pyplot as plt
%matplotlib inline
img = Image.open(filename) # filename is the png file in question
img.show()
arr = np.array(img)
plt.imshow(arr, cmap='gray')
Run Code Online (Sandbox Code Playgroud)
它产生了以下图像:
这很奇怪,因为结果不是原始图像的灰度图像。上面的代码也用于 deeplab tensorflow 数据集,以去除真实图像中的颜色图。
有谁知道为什么?非常感谢!
使用 opencv 加载图像、转换为灰度并使用 matplotlib 绘图时,我看到了一个奇怪的现象:
from matplotlib import pyplot as plt
import argparse
import cv2
image = cv2.imread("images/image1.jpg")
image = cv2.cvtColor(image, cv2.COLOR_RGB2GRAY)
plt.imshow(image)
Run Code Online (Sandbox Code Playgroud)
就这么简单。
但它给出了如下的“灰度”图:
我使用https://github.com/tensorflow/models/blob/master/research/object_detection/samples/configs/ssd_mobilenet_v1_pets.config 上的 ssd_mobilenet_v1_pets.config 配置按照 TF 对象检测 API 教程页面上的步骤进行操作
我能够使用自己的图像训练自定义检测器,这非常酷。然而,由于整个训练过程在我看来是一个“黑匣子”,我想知道如何配置要微调的层,就像如何使用 tensorflow 中的 Inception 模型配置要重新训练的层一样/凯拉斯。
我认为,如果我有 10000 张图像而不是 100 张图像,则要微调的图层可能(应该)不同。
在 WPF 中,当我加载包含大量元素的环绕面板时,窗口会在显示内容之前暂停一段时间。我想添加一个等待提示,但我找不到检测包装面板何时完成渲染的方法。
我尝试过“加载”、“大小改变”、“初始化”,但都没有成功。有没有人对这个问题有任何想法?
非常感谢 !