是否可以删除调用后建立的内存缓存tf.data.Dataset.cache()?
这就是我想做的。数据集的扩充是非常昂贵的,所以当前的代码或多或少是:
data = tf.data.Dataset(...) \
.map(<expensive_augmentation>) \
.cache() \
# .shuffle().batch() etc.
Run Code Online (Sandbox Code Playgroud)
然而,这意味着每次迭代data都会看到数据样本的相同增强版本。我想做的是使用缓存几个时期,然后重新开始,或者等效地执行类似的操作Dataset.map(<augmentation>).fleeting_cache().repeat(8)。这有可能实现吗?