在将Keras用于LSTM模型时,何时使用GlobalAveragePooling1D以及何时使用GlobalMaxPooling1D?

rag*_*agr 5 nlp lstm keras

我必须为某些文本创建LSTM分类模型,并且在使用keras时,在合并层中的GlobalAveragePooling1D和GlobalMaxPooling1D之间感到困惑。在决定一种特定选择时,我应该使用哪一种,以及要考虑哪些事项。

Dan*_*ler 9

这取决于很多关于您的数据,你从它想要的东西。这是测试是唯一肯定答案的情况之一。

例如,如果要检测序列中是否存在某物,则最大池化似乎是一个不错的选择。

但是,如果整个序列的贡献对您的结果似乎很重要,那么平均合并听起来就很合理。

现在,由于您正在使用LSTM层,因此也许应该return_sequences=False在最后一个LSTM层中使用。这也有可能代替合并。这将仅保留序列的最后一步。处理整个序列可能有好处,也许会对您的结果产生累积影响。

在所有情况下,测试都是唯一的最终答案。