在LSTM网络(了解LSTM)中,为什么输入门和输出门使用tanh?这背后的直觉是什么?它只是一个非线性变换?如果是,我可以将两者都更改为另一个激活功能(例如ReLU)吗?
machine-learning deep-learning lstm recurrent-neural-network activation-function
我试图用keras使用CTC语音识别和尝试了CTC例子在这里.在该示例中,CTC Lambda
层的输入是softmax层(y_pred
)的输出.该Lambda
层调用ctc_batch_cost
内部调用Tensorflow ctc_loss
,但Tensorflow ctc_loss
文档说该ctc_loss
函数在内部执行softmax,因此您不需要首先softmax输入.我认为正确的用法是传递inner
给Lambda
图层,所以你只在ctc_loss
内部函数中应用softmax .我试过这个例子,但它确实有效.我应该遵循示例还是Tensorflow文档?