TensorFlow中的卷积层是否支持丢失?

Len*_*oyt 3 tensorflow

我想知道我是否可以简单地将退出应用于TensorFlow中的卷积.它将如何应用?卷积遮罩的权重是否在输入上"滑动"时随机设置为零?

fwa*_*lch 7

您可以在任意输入张量上应用dropout.如何计算这个输入并不重要; 输入的每个元素将简单地保留(和缩放,见下文)或设置为零.

来自https://www.tensorflow.org/api_docs/python/tf/nn/dropout:

有概率keep_prob,输出按比例放大的输入元素1 / keep_prob,否则输出0.缩放是为了使预期的总和不变.

默认情况下,每个元素都是独立保留或删除的.

例如:

conv = tf.nn.conv2d(...)
drop = tf.nn.dropout(conv, keep_prob=0.5)
Run Code Online (Sandbox Code Playgroud)