TensorFlow tf.data.Dataset和bucketing

blu*_*ers 9 python tensorflow tensorflow-datasets

对于LSTM网络,我看到了大量的改进.

在TensorFlow文档(tf.contrib)中遇到了分段.

虽然在我的网络中,我正在使用tf.data.DatasetAPI,特别是我正在使用TFRecords,所以我的输入管道看起来像这样

dataset = tf.data.TFRecordDataset(TFRECORDS_PATH)
dataset = dataset.map(_parse_function)
dataset = dataset.map(_scale_function)
dataset = dataset.shuffle(buffer_size=10000)
dataset = dataset.padded_batch(batch_size, padded_shapes={.....})
Run Code Online (Sandbox Code Playgroud)

如何将bucketing方法合并到tf.data.Dataset管道中?

如果重要,在TFRecords文件中的每个记录中,我将序列长度保存为整数.

vij*_*y m 5

这里很好地解释了各种bucketing使用案例。Dataset API

bucket_by_sequence_length() 例:

def elements_gen():
   text = [[1, 2, 3], [3, 4, 5, 6, 7], [1, 2], [8, 9, 0, 2]]
   label = [1, 2, 1, 2]
   for x, y in zip(text, label):
       yield (x, y)

def element_length_fn(x, y):
   return tf.shape(x)[0]

dataset = tf.data.Dataset.from_generator(generator=elements_gen,
                                     output_shapes=([None],[]),
                                     output_types=(tf.int32, tf.int32))

dataset =   dataset.apply(tf.contrib.data.bucket_by_sequence_length(element_length_func=element_length_fn,
                                                              bucket_batch_sizes=[2, 2, 2],
                                                              bucket_boundaries=[0, 8]))

batch = dataset.make_one_shot_iterator().get_next()

with tf.Session() as sess:

   for _ in range(2):
      print('Get_next:')
      print(sess.run(batch))
Run Code Online (Sandbox Code Playgroud)

输出:

Get_next:
(array([[1, 2, 3, 0, 0],
   [3, 4, 5, 6, 7]], dtype=int32), array([1, 2], dtype=int32))
Get_next:
(array([[1, 2, 0, 0],
   [8, 9, 0, 2]], dtype=int32), array([1, 2], dtype=int32))
Run Code Online (Sandbox Code Playgroud)

  • 该链接指向一个已删除的站点。 (4认同)