gro*_*fte 5 python tensorflow tfrecord
我将一些相当大的 Pandas 数据帧导出为 Tensorflow 的序列化格式。我经常这样做,而且速度非常慢。这可能是因为我必须序列化各个示例 idk。另外,我使用“GZIP”选项压缩文件。
我在文档中找到了 TFRecordWriter 的一些选项,看起来它们可能会有所帮助(缓冲区有帮助,对吧?)。但没有解释这些input_buffer_size值的含义或范围。是 {0, 1, 2, 3} 还是几百万?或者我想要output_buffer_size什么mem_level或者其他什么?
Args
compression_type "GZIP", "ZLIB", or "" (no compression).
flush_mode flush mode or None, Default: Z_NO_FLUSH.
input_buffer_size int or None.
output_buffer_size int or None.
window_bits int or None.
compression_level 0 to 9, or None.
compression_method compression method or None.
mem_level 1 to 9, or None.
compression_strategy strategy or None. Default: Z_DEFAULT_STRATEGY.
Run Code Online (Sandbox Code Playgroud)
tf_record.py中给出了一些描述。这将指向 zlib 库,它提供了一些更完整的信息。
遗憾的是,文本在__init__()方法中,因此似乎没有出现在 Tensorflow 自动文档中
我不会发布“答案”,因为一旦找到链接,阅读评论就很容易,而且它们将比我写的任何内容都更准确。
需要注意的是,*_buffer_size 的默认值为 25,600。
| 归档时间: |
|
| 查看次数: |
559 次 |
| 最近记录: |