是否可以按批次裁剪/调整图像大小?
我正在使用 Tensorflow 数据集 API,如下所示:
dataset = dataset.shuffle().repeat().batch(batch_size, drop_remainder=True)
Run Code Online (Sandbox Code Playgroud)
我希望,批次内所有图像都应具有相同的尺寸。然而,不同批次的尺寸可能不同。
例如,第一个批次包含形状为 (batch_size, 300, 300, 3) 的所有图像。下一批可以具有形状为 (batch_size, 224, 224, 3) 的图像。另一个批次可以具有形状为 (batch_size, 400, 400, 3) 的图像。
基本上我想要动态形状的批次,但是批次内的所有图像都有静态形状。
如果我们这样做:
dataset = dataset.shuffle().repeat().batch(batch_size, drop_remainder=True).map(lambda x, y: map_fn(x, y))
Run Code Online (Sandbox Code Playgroud)
上面的 .map() 是单独应用于每个批次还是整个数据集?
如果上面的 .map() 不能单独应用于每个批次,我们该怎么做?我们可以在 dataset.batch() 之后定义任何迭代器,对每个批次的每个图像应用 tf.image.crop_and_resize() ,然后使用 dataset.concatenate() 来组合所有转换后的批次吗?
我正在创建数据集,如下所示:
# Dataset creation (read image data from files of COCO dataset)
dataset = tf.data.Dataset.list_files(self._file_pattern, shuffle=False)
dataset = dataset.shard(dataset_num_shards, dataset_shard_index)
dataset = dataset.shuffle(tf.cast(256 / dataset_num_shards, tf.int64))
dataset = dataset.interleave(map_func=tf.data.TFRecordDataset(filename).prefetch(1), cycle_length=32, block_length=1, num_parallel_calls=tf.data.experimental.AUTOTUNE) …
Run Code Online (Sandbox Code Playgroud)