Nan*_*tam 2 python keras keras-layer
keras中的Dropout层dropout和recurrent_droput参数有什么区别?它们都用于相同的目的吗?
例子:
model.add(Dropout(0.2)) # layer
model.add(LSTM(100, dropout=0.2, recurrent_dropout=0.2)) # parameters
Run Code Online (Sandbox Code Playgroud)
小智 5
是的,它们具有相同的功能,在该层的线性变换(权重相乘和偏置相加)之前使用 dropout 作为参数。Dropout 作为层也可以在激活层之前使用。
recurrent_dropout 也有相同的功能但方向不同(通常 dropouts 在输入和输出之间,它在时间戳之间)
| 归档时间: |
|
| 查看次数: |
465 次 |
| 最近记录: |