小编clo*_*udy的帖子

tf.data.Dataset - 删除缓存?

是否可以删除调用后建立的内存缓存tf.data.Dataset.cache()

这就是我想做的。数据集的扩充是非常昂贵的,所以当前的代码或多或少是:

data = tf.data.Dataset(...) \
       .map(<expensive_augmentation>) \
       .cache() \
       # .shuffle().batch() etc. 
Run Code Online (Sandbox Code Playgroud)

然而,这意味着每次迭代data都会看到数据样本的相同增强版本。我想做的是使用缓存几个时期,然后重新开始,或者等效地执行类似的操作Dataset.map(<augmentation>).fleeting_cache().repeat(8)。这有可能实现吗?

python tensorflow

7
推荐指数
1
解决办法
1758
查看次数

标签 统计

python ×1

tensorflow ×1