在Tensorflow中使用TPU时,是否有一个可靠的解决方法来保存本地驱动器中的检查点?

San*_*ta7 5 python tensorflow google-colaboratory google-cloud-tpu

对此问题的跟进:

在使用TPU模式时如何从Google Colaboratory保存Tensorflow Checkpoint文件?

使用Tensorflow TPU时保存检查点的官方方法是使用Google Cloud Service.

如果对于那些不希望使用GCS的人有解决方法,我正在工作.也许对于每个变量,执行.eval(),保存变量.然后将save变量设置为每个变量的'init'值.

我预见的一个主要问题是保存和加载优化器的参数.

对于Keras来说,权重似乎从TPU保存到本地

https://colab.research.google.com/github/tensorflow/tpu/blob/master/tools/colab/shakespeare_with_tpu_and_keras.ipynb

INFO:tensorflow:将TPU权重复制到CPU

所以我想也有一个普遍的解决方法,不使用keras.

ale*_*lex 2

看看Keras 的这段代码

如果我理解正确的话,权重不会直接从 TPU 保存,而是同步到 CPU 并保存到 colab 存储。

编辑

另请参阅:这个答案