hel*_*l89 24 machine-learning lstm keras recurrent-neural-network
由于LSTM RNN使用先前的事件来预测当前序列,为什么我们将训练数据混洗?我们不会失去训练数据的时间顺序吗?在对改组后的训练数据进行训练后,如何进行预测仍然有效?
Bri*_*son 32
通常,当您对训练数据(一组序列)进行随机排列时,您会将序列送入RNN的顺序改变,您不会在单个序列中随机排序.当您的网络处于无状态时,这很好:
无国籍案件:
网络的内存仅在序列持续时间内持续存在.在序列A之前对序列B进行训练并不重要,因为网络的内存状态不会在序列之间持续存在.
另一方面:
有状态案例:
网络的内存在序列中持续存在.在这里,您不能盲目地改变数据并期望获得最佳结果.序列A应该在序列B之前被馈送到网络,因为A在B之前,我们希望网络用序列B来记录序列B的内存.
| 归档时间: |
|
| 查看次数: |
6665 次 |
| 最近记录: |