cd9*_*d98 2 python google-cloud-storage parquet dask pyarrow
我正在尝试使用 Dask 从 google 存储桶读取和写入。使用一堆csv文件可以,但不方便(速度较慢,无法压缩,无法仅读取某些列),所以我尝试使用该apache parquet格式。
看起来写得很好:
import dask.dataframe as dd
pandas_df = pd.DataFrame({'x' : [2,3, 2], 'y': [1, 0, 0]})
dask_df = dd.from_pandas(pandas_df, npartitions=2)
dask_df.to_parquet("gcs://my_google_bucket/test/")
Run Code Online (Sandbox Code Playgroud)
但当我尝试读回来时
read_again_df = dd.read_parquet("gcs://my_google_bucket/test/")
Run Code Online (Sandbox Code Playgroud)
我收到一个未实现的错误:
AttributeError Traceback (most recent call last)
~/miniconda3/envs/env1/lib/python3.6/site-packages/dask/bytes/core.py in get_pyarrow_filesystem(fs)
520 try:
--> 521 return fs._get_pyarrow_filesystem()
522 except AttributeError:
AttributeError: 'DaskGCSFileSystem' object has no attribute '_get_pyarrow_filesystem'
During handling of the above exception, another exception occurred:
NotImplementedError Traceback (most recent call last)
<ipython-input-42-ef1fc41d04d5> in <module>()
----> 1 read_again = dd.read_parquet("gcs://my_google_bucket/test/")
~/miniconda3/envs/env1/lib/python3.6/site-packages/dask/dataframe/io/parquet.py in read_parquet(path, columns, filters, categories, index, storage_options, engine, infer_divisions)
991
992 return read(fs, fs_token, paths, columns=columns, filters=filters,
--> 993 categories=categories, index=index, infer_divisions=infer_divisions)
994
995
~/miniconda3/envs/env1/lib/python3.6/site-packages/dask/dataframe/io/parquet.py in _read_pyarrow(fs, fs_token, paths, columns, filters, categories, index, infer_divisions)
505 columns = list(columns)
506
--> 507 dataset = pq.ParquetDataset(paths, filesystem=get_pyarrow_filesystem(fs))
508 if dataset.partitions is not None:
509 partitions = [n for n in dataset.partitions.partition_names
~/miniconda3/envs/env1/lib/python3.6/site-packages/dask/bytes/core.py in get_pyarrow_filesystem(fs)
522 except AttributeError:
523 raise NotImplementedError("Using pyarrow with a %r "
--> 524 "filesystem object" % type(fs).__name__)
NotImplementedError: Using pyarrow with a 'DaskGCSFileSystem' filesystem object
Run Code Online (Sandbox Code Playgroud)
我猜这意味着dask仍然无法直接从谷歌云服务读取镶木地板文件。是否有任何间接的方法可以使其工作,例如使用pyarrow?
dask我想保留的是延迟加载内容然后用于进行数据转换的能力。
谢谢!
Dask 当然可以使用 fastparquet 后端 ( engine='fastparquet') 从 GCS 读取 parquet。请注意,pyarrow 不会创建_metadatafastparquet 期望的文件,因此您可以使用 fastparquet 写入数据,使用 fastparquet 从现有数据文件创建文件,或者传递指向所有数据文件的 glob 字符串,而不是传递目录。
你正在做的事情也应该与 pyarrow 一起工作,因为 pyarrow 通常可以接受任何类似 python 文件的对象,但在这种情况下似乎是尝试创建一个 pyarrow 文件系统。您在上面看到的错误可能是一个错误,应该进行调查。
-编辑-
根据OP的评论,以下内容确实有效
pandas_df = pd.DataFrame({'x' : [2,3, 2], 'y': [1, 0, 0]})
dask_df = dd.from_pandas(pandas_df, npartitions=2)
dask_df.to_parquet("gcs://my_bucket/test", engine='fastparquet')
read_again_df = dd.read_parquet("gcs://my_bucket/test/", engine='fastparquet')
Run Code Online (Sandbox Code Playgroud)
请注意,由于某些错误原因,dask_df.to_parquet()需要使用“gcs://my_bucket/test”调用,而不使用“/”,否则dd.read_parquet()不起作用
| 归档时间: |
|
| 查看次数: |
5338 次 |
| 最近记录: |