中间层使tensorflow优化器停止工作

lur*_*her 9 python machine-learning autoencoder deep-learning tensorflow

该图训练了一个简单的信号身份编码器,实际上表明权重由优化器进化:

import tensorflow as tf
import numpy as np
initia = tf.random_normal_initializer(0, 1e-3)

DEPTH_1 = 16
OUT_DEPTH = 1
I = tf.placeholder(tf.float32, shape=[None,1], name='I') # input
W = tf.get_variable('W', shape=[1,DEPTH_1], initializer=initia, dtype=tf.float32, trainable=True) # weights
b = tf.get_variable('b', shape=[DEPTH_1], initializer=initia, dtype=tf.float32, trainable=True) # biases
O = tf.nn.relu(tf.matmul(I, W) + b, name='O') # activation / output

#W1 = tf.get_variable('W1', shape=[DEPTH_1,DEPTH_1], initializer=initia, dtype=tf.float32) # weights
#b1 = tf.get_variable('b1', shape=[DEPTH_1], initializer=initia, dtype=tf.float32) # biases
#O1 = tf.nn.relu(tf.matmul(O, W1) + b1, name='O1')

W2 = tf.get_variable('W2', shape=[DEPTH_1,OUT_DEPTH], initializer=initia, dtype=tf.float32) # weights
b2 = tf.get_variable('b2', shape=[OUT_DEPTH], initializer=initia, dtype=tf.float32) # biases
O2 = tf.matmul(O, W2) + b2

O2_0 = tf.gather_nd(O2, [[0,0]])

estimate0 = 2.0*O2_0

eval_inp = tf.gather_nd(I,[[0,0]])
k = 1e-5
L = 5.0
distance = tf.reduce_sum( tf.square( eval_inp - estimate0 ) )

opt = tf.train.GradientDescentOptimizer(1e-3)
grads_and_vars = opt.compute_gradients(distance, [W, b, #W1, b1,
  W2, b2])
clipped_grads_and_vars = [(tf.clip_by_value(g, -4.5, 4.5), v) for g, v in grads_and_vars]

train_op = opt.apply_gradients(clipped_grads_and_vars)

saver = tf.train.Saver()
init_op = tf.global_variables_initializer()

with tf.Session() as sess:
  sess.run(init_op)
  for i in range(10000):
    print sess.run([train_op, I, W, distance], feed_dict={ I: 2.0*np.random.rand(1,1) - 1.0})
  for i in range(10):
    print sess.run([eval_inp, W, estimate0], feed_dict={ I: 2.0*np.random.rand(1,1) - 1.0})
Run Code Online (Sandbox Code Playgroud)

但是,当我取消注释中间隐藏层并训练生成的网络时,我发现权重不再发展:

import tensorflow as tf
import numpy as np
initia = tf.random_normal_initializer(0, 1e-3)

DEPTH_1 = 16
OUT_DEPTH = 1
I = tf.placeholder(tf.float32, shape=[None,1], name='I') # input
W = tf.get_variable('W', shape=[1,DEPTH_1], initializer=initia, dtype=tf.float32, trainable=True) # weights
b = tf.get_variable('b', shape=[DEPTH_1], initializer=initia, dtype=tf.float32, trainable=True) # biases
O = tf.nn.relu(tf.matmul(I, W) + b, name='O') # activation / output

W1 = tf.get_variable('W1', shape=[DEPTH_1,DEPTH_1], initializer=initia, dtype=tf.float32) # weights
b1 = tf.get_variable('b1', shape=[DEPTH_1], initializer=initia, dtype=tf.float32) # biases
O1 = tf.nn.relu(tf.matmul(O, W1) + b1, name='O1')

W2 = tf.get_variable('W2', shape=[DEPTH_1,OUT_DEPTH], initializer=initia, dtype=tf.float32) # weights
b2 = tf.get_variable('b2', shape=[OUT_DEPTH], initializer=initia, dtype=tf.float32) # biases
O2 = tf.matmul(O1, W2) + b2

O2_0 = tf.gather_nd(O2, [[0,0]])

estimate0 = 2.0*O2_0

eval_inp = tf.gather_nd(I,[[0,0]])

distance = tf.reduce_sum( tf.square( eval_inp - estimate0 ) )

opt = tf.train.GradientDescentOptimizer(1e-3)
grads_and_vars = opt.compute_gradients(distance, [W, b, W1, b1,
  W2, b2])
clipped_grads_and_vars = [(tf.clip_by_value(g, -4.5, 4.5), v) for g, v in grads_and_vars]

train_op = opt.apply_gradients(clipped_grads_and_vars)

saver = tf.train.Saver()
init_op = tf.global_variables_initializer()

with tf.Session() as sess:
  sess.run(init_op)
  for i in range(10000):
    print sess.run([train_op, I, W, distance], feed_dict={ I: 2.0*np.random.rand(1,1) - 1.0})
  for i in range(10):
    print sess.run([eval_inp, W, estimate0], feed_dict={ I: 2.0*np.random.rand(1,1) - 1.0})
Run Code Online (Sandbox Code Playgroud)

estimate0快速收敛在某个固定值上的评估,该固定值与输入信号无关.我不知道为什么会这样

题:

知道第二个例子可能有什么问题吗?

Max*_*xim 16

TL; DR:神经网络越深,你就越应该注意梯度流(参见"消失梯度"的讨论).一个特例是变量初始化.


问题分析

我已将变量和渐变的张量汇总摘要添加到两个脚本中并获得以下内容:

2层网络

2层

3层网络

3层网络

图表显示了W:0变量的分布(第一层)以及它们如何从0纪元变为1000(可点击).实际上,我们可以看到,2层网络的变化率要高得多.但是我想关注梯度分布,它在3层网络中更接近于0(第一个方差在附近0.005,第二个方差在附近0.000002,即小1000倍).这是消失的梯度问题.

如果您有兴趣,这是帮助代码:

for g, v in grads_and_vars:
  tf.summary.histogram(v.name, v)
  tf.summary.histogram(v.name + '_grad', g)

merged = tf.summary.merge_all()
writer = tf.summary.FileWriter('train_log_layer2', tf.get_default_graph())

...

_, summary = sess.run([train_op, merged], feed_dict={I: 2*np.random.rand(1, 1)-1})
if i % 10 == 0:
  writer.add_summary(summary, global_step=i)
Run Code Online (Sandbox Code Playgroud)

所有深度网络都在某种程度上受到影响,并且没有通用的解决方案可以自动神奇地修复任何网络.但有一些技术可以推动它朝着正确的方向发展.初始化就是其中之一.

我用以下内容替换了正常的初始

W_init = tf.contrib.layers.xavier_initializer()
b_init = tf.constant_initializer(0.1)
Run Code Online (Sandbox Code Playgroud)

有很多关于Xavier init的教程,你可以看看这个,例如.请注意,我将偏差初始化设置为略微为正,以确保大多数神经元的ReLu输出为正,至少在开始时.

这立刻改变了画面:

3-层改善

权重仍然没有像以前那样快速移动,但是它们正在移动(注意W:0值的比例),并且梯度分布在0处变得更低,因此更好.

当然,这不是结束.为了进一步改进,您应该实现完整的自动编码器,因为当前丢失会受到[0,0]元素重建的影响,因此大多数输出​​不会用于优化.您还可以使用不同的优化器(Adam将是我的选择)和学习率.

  • 这就是为什么我直接使用keras而不是tensorflow - 明智的默认值 (3认同)