在MNIST LSTM示例中,我不明白"隐藏层"的含义.是否随着时间的推移代表展开的RNN时会形成虚构层?
为什么num_units = 128
在大多数情况下?
我知道我应该详细阅读colah的博客来理解这一点,但在此之前,我只是希望得到一些代码来处理我所拥有的时间序列数据.
我有一个django表单,它收集用户响应.我也有张量流句分类模型.将这两者结合在一起的最佳/标准方法是什么?细节:
如果您可以建议教程或回购,那就太棒了.谢谢 !
django machine-learning sentiment-analysis scikit-learn tensorflow
我有一个带有双向 LSTMS 的 CNN-RNN 模型架构,用于时间序列回归问题。我的损失没有收敛超过 50 个时期。每个 epoch 有 20k 个样本。损失在0.001 - 0.01之间不断反弹。
batch_size=1
epochs = 50
model.compile(loss='mean_squared_error', optimizer='adam')
trainingHistory=model.fit(trainX,trainY,epochs=epochs,batch_size=batch_size,shuffle=False)
Run Code Online (Sandbox Code Playgroud)
模型 :
model = Sequential()
model.add(LSTM(units=128, dropout=0.05, recurrent_dropout=0.35, return_sequences=True, batch_input_shape=(batch_size,featureSteps,input_dim)))
model.add(LSTM(units=32, dropout=0.05, recurrent_dropout=0.35, return_sequences=False))
model.add(Dense(units=2, activation='softmax'))
model.compile(loss='categorical_crossentropy', optimizer=opt, metrics=['accuracy'])
Run Code Online (Sandbox Code Playgroud)