我正在尝试使用 TF2.0 (Beta) 来可视化 tf.data.Datasets 的性能。我找到了有关如何在旧版 tensorflow 中使用分析器的示例。如何在 TF2.0 中进行分析?我可以使用 tf.compat.v1,但过程似乎并不简单。
我想测量内存消耗(设备放置明智)和时间线。
下面的示例解释了使用 TF1.x 的分析 我可以使用 TensorFlow 测量单个操作的执行时间吗?
创建 tf.data.Dataset 后,我想将其写入 TFRecords。
一种方法是遍历整个数据集并在 serializeToString 之后写入 TFRecords。但这并不是最有效的方法。
有没有更简单的方法来做到这一点?TF2.0 中是否有可用的 API?
我正在使用多个 tfRecord 文件并希望从中读取以创建数据集。我正在尝试使用来自_tensor_slices 的路径并使用该数据集进一步读取 TFRecords
(多个 tfRecords 的优点:https ://datascience.stackexchange.com/questions/16318/what-is-the-benefit-of-splitting-tfrecord-file-into-shards )
我想知道是否有更简单且行之有效的方法来做到这一点。
file_names_dataset = tf.data.Dataset.from_tensor_slices(filenames_full)
def read(inp):
return tf.data.TFRecordDataset(inp)
file_content = file_names.map(read)
Run Code Online (Sandbox Code Playgroud)
我的下一步是使用 tf.io.parse_single_example 解析数据集。