我正在阅读数据加载部分的 TF 性能指南。对于预取它说,
tf.data API 通过 tf.data.Dataset.prefetch 转换提供了软件流水线机制,可用于将数据产生时间与数据消耗时间解耦。特别是,转换使用后台线程和内部缓冲区在请求元素之前从输入数据集中预取元素。要预取的元素数应等于(或可能大于)单个训练步骤消耗的批次数。您可以手动调整此值,或将其设置为 tf.data.experimental.AUTOTUNE,这将提示 tf.data 运行时在运行时动态调整该值。
AUTOTUNE 内部在做什么?正在应用哪种算法,启发式?
另外,在实践中,进行了什么样的手动调整?