小编Sta*_*low的帖子

keras GRU 层中的返回状态和返回序列有什么区别?

我似乎无法理解 keras GRU 层中返回状态和返回序列之间的差异。

由于 GRU 单元没有单元状态(它等于输出),返回状态与 keras GRU 层中的返回序列有何不同?

更具体地说,我构建了一个编码器-解码器 LSTM 模型,其中包含一个编码器层和一个解码器层。编码器层返回其状态(return_state = TRUE),解码器层使用这些状态作为初始状态(initial_state = encoder_states)

当尝试使用 GRU 层执行此操作时,我不明白在编码器和解码器层之间传递了什么状态。如果你能澄清这一点,请告诉我。提前致谢。

machine-learning lstm keras tensorflow recurrent-neural-network

8
推荐指数
1
解决办法
2004
查看次数