Die*_*rdo 5 python neural-network lstm tensorflow
我正在使用张量流中默认出现的LSTM模型.我想检查或知道如何在每一步中保存或显示遗忘门的值,有没有人在此之前完成此操作或至少与此类似?
直到现在我已尝试使用tf.print但是出现了很多值(甚至比我期望的更多)我会尝试用张量板绘制一些东西,但我认为那些门只是变量而不是我可以打印的额外层(也导致它们在TF脚本里面)
任何帮助都会受到好评
如果您正在使用tf.rnn_cell.BasicLSTMCell
,则您要查找的变量名称中将包含以下后缀:<parent_variable_scope>/BasicLSTMCell/Linear/Matrix
。这是所有四个门的串联矩阵。它的第一维与输入矩阵和状态矩阵(或者准确地说是单元的输出)的第二维之和相匹配。第二个维度是单元大小数量的 4 倍。
另一个互补变量是<parent_variable_scope>/BasicLSTMCell/Linear/Bias
与上述张量的第二维大小相同的向量(出于明显的原因)。
您可以使用沿维度 1 检索四个门的参数。tf.split()
分割矩阵的顺序为[input], [new input], [forget], [output]
。我指的是这里的代码 form rnn_cell.py
。
请记住,该变量代表单元的参数,而不是相应门的输出。但通过上述信息,如果您愿意,我相信您也可以获得。
编辑:
添加了有关实际张量的更多具体信息Matrix
和Bias
归档时间: |
|
查看次数: |
1315 次 |
最近记录: |