小编Phi*_*ock的帖子

dynamic_rnn中的swap_memory允许准无限序列?

我试图用长字符序列标记字母.数据的固有结构要求我使用双向方法.

此外,基于这个想法,我需要在每个时间步进入隐藏状态,而不仅仅是最后一个.

为了尝试这个想法,我采用了固定长度的方法.我目前使用随机件的批量说每60个字符了我更长的时间序列,并且运行我的手工双向分类zero_state作为initial_state每个60封件.

这工作得很好,但显然不是很完美,因为实际上序列更长,并且从我从原始源中随机剪切的部分左右的信息丢失了.

现在为了推进我想要使用整个序列.它们的长度差异很大,我无法将整个序列(进一步批量)放到GPU上.

我在dynamic_rnn文档中找到了swap_memory - 参数.那会有帮助吗?

我没有找到任何有助于我理解的文档.而且我不能轻易地自己尝试这个,因为我需要在每个时间步都访问隐藏状态,因此我编写了当前图形而不使用任何更高级别的包装器(例如dynamic_rnn).尝试这一点需要我从包装器中获取所有中间状态,据我所知,这是很多工作要实现的.

在经历尝试这个问题的麻烦之前,我很想确定这确实会解决我的记忆问题.Thx任何提示!

lstm tensorflow recurrent-neural-network

6
推荐指数
1
解决办法
905
查看次数