sir*_*day 5 machine-learning mathematical-optimization gradient-descent tensorflow
我有一个训练数据文件,大约100K行,我tf.train.GradientDescentOptimizer在每个训练步骤都运行得很简单.该设置基本上直接来自Tensorflow的MNIST示例.代码转载如下:
x = tf.placeholder(tf.float32, [None, 21])
W = tf.Variable(tf.zeros([21, 2]))
b = tf.Variable(tf.zeros([2]))
y = tf.nn.softmax(tf.matmul(x, W) + b)
y_ = tf.placeholder(tf.float32, [None, 2])
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)
Run Code Online (Sandbox Code Playgroud)
鉴于我正在从文件中读取训练数据,我正在使用tf.train.string_input_producer并tf.decode_csv从csv中读取行,然后tf.train.shuffle_batch创建我随后训练的批次.
我对我的参数应该是什么感到困惑tf.train.shuffle_batch.我阅读了Tensorflow的文档,但我仍然不确定"最佳"batch_size,capacity和min_after_dequeue值是什么.任何人都可以帮助我解释如何为这些参数选择合适的值,或者将我链接到我可以了解更多信息的资源?谢谢 -
这是API链接:https://www.tensorflow.org/versions/r0.9/api_docs/python/io_ops.html#shuffle_batch
有一点关于要使用的线程数
https://www.tensorflow.org/versions/r0.9/how_tos/reading_data/index.html#batching
不幸的是,我认为批量大小没有一个简单的答案。网络的有效批量大小取决于有关网络的许多细节。在实践中,如果您关心最佳性能,您将需要进行大量的试验和错误(可能从类似网络使用的值开始)。