在MNIST LSTM示例中,我不明白"隐藏层"的含义.是否随着时间的推移代表展开的RNN时会形成虚构层?
为什么num_units = 128在大多数情况下?
num_units = 128
我知道我应该详细阅读colah的博客来理解这一点,但在此之前,我只是希望得到一些代码来处理我所拥有的时间序列数据.
neural-network lstm tensorflow recurrent-neural-network
lstm ×1
neural-network ×1
recurrent-neural-network ×1
tensorflow ×1