Tensorflow LSTM RNN输出激活功能

Ken*_*ihe 5 python artificial-intelligence machine-learning neural-network tensorflow

我有一个输入图像,灰度值不等25000 - 35000.我正在进行二进制像素分类,因此输出接地事实是一个0's或两个矩阵1's.

有谁知道默认输出激活功能是什么?我的问题是,它是一个ReLu?我希望它是一个SoftMax功能.在这种情况下,每个预测值都在0和之间1(显然接近我的地面实况数据).

我正在使用此处的示例代码,我已调整为我的数据工作.

我有一个正在训练的工作网络,但是迷你公司目前的损失大约为425,准确度为0.0,而对于LSTM MNIST示例代码(链接),小批量损失大约为0.1,而累计大约为1.0.我希望如果我可以更改激活功能以使用SoftMax功能,我可以改善结果.

mrr*_*rry 7

看着代码,默认激活功能BasicLSTMCelltf.tanh().您可以通过activation在构造BasicLSTMCell对象时指定可选参数来自定义激活函数,并传递任何需要单个输入并生成相同形状的单个输出的TensorFlow操作.例如:

# Defaults to using `tf.tanh()`.
lstm_cell = rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0)

# Uses  `tf.relu()`.
lstm_cell = rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0, activation=tf.nn.relu)

# Uses  `tf.softmax()`.
lstm_cell = rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0, activation=tf.nn.softmax)
Run Code Online (Sandbox Code Playgroud)