小编NRG*_*NRG的帖子

Python Keras LSTM学习在高损耗时收敛得太快

这更像是一个深度学习概念问题,如果这不是正确的平台,我会把它带到其他地方.

我正在尝试使用Keras LSTM序列模型来学习文本序列并将它们映射到数值(回归问题).

问题是,学习总是在高损失(训练和测试)上收敛得太快.我已经尝试了所有可能的超参数,我感觉这是一个局部最小问题导致模型的高偏差.

我的问题基本上是:

  1. 鉴于此问题,如何初始化权重和偏差?
  2. 使用哪种优化器?
  3. 我应该扩展网络的深度(我担心如果我使用非常深的网络,训练时间将无法忍受,模型差异将会增大)
  4. 我应该添加更多培训数据吗?

输入和输出用minmax标准化.

我正在使用具有动量的SGD,目前有3个LSTM层(126,256,128)和2个密集层(200和1个输出神经元)

我已经在几个时期之后打印了重量,并注意到许多权重为零,其余的基本上具有值1(或非常接近它).

以下是tensorboard的一些情节:在此输入图像描述

python deep-learning lstm keras tensorflow

6
推荐指数
1
解决办法
2499
查看次数

标签 统计

deep-learning ×1

keras ×1

lstm ×1

python ×1

tensorflow ×1