相关疑难解决方法(0)

使用 keras 在 gcloud ml-engine 上处理 TB 数据的最佳方法

我想在 gcloud 存储上大约 2TB 的图像数据上训练一个模型。我将图像数据保存为单独的 tfrecords 并尝试在此示例之后使用 tensorflow 数据 api

https://medium.com/@moritzkrger/speeding-up-keras-with-tfrecord-datasets-5464f9836c36

但似乎 kerasmodel.fit(...)不支持基于 tfrecord 数据集的验证

https://github.com/keras-team/keras/pull/8388

是否有更好的方法来处理来自我缺少的 ml-engine 的 keras 的大量数据?

非常感谢!

keras tensorflow google-cloud-ml tfrecord tensorflow-datasets

2
推荐指数
1
解决办法
649
查看次数