在将 pivot_table 用于 Dask Dataframe 并将数据保存到 Parquet 文件后,我丢失了索引列。
import dask.dataframe as dd
import pandas as pd
df=pd.DataFrame()
df["Index"]=[1,2,3,1,2,3]
df["Field"]=["A","A","A","B","B","B"]
df["Value"]=[10,20,30,100,120,130]
df
Run Code Online (Sandbox Code Playgroud)
我的数据框:
Index Field Value
0 1 A 10
1 2 A 20
2 3 A 30
3 1 B 100
4 2 B 120
5 3 B 130
Run Code Online (Sandbox Code Playgroud)
达斯克代码:
ddf=dd.from_pandas(df,2)
ddf=ddf.categorize("Field")
ddf=ddf.pivot_table(values="Value", index="Index", columns="Field")
dd.to_parquet("1.parq",ddf)
dd.read_parquet("1.parq").compute()
Run Code Online (Sandbox Code Playgroud)
这给出了一个错误:
ValueError: 存在多个可能的索引:['A', 'B']。请选择一个 index='index-name'
我可以选择 A 或 B 作为索引,但我缺少索引列。
我试过了dd.to_parquet("1.parq",ddf, write_index=True),但它给了我以下错误:
类型错误:无法将项目插入还不是现有类别的 CategoricalIndex
有人可以帮我将带有“索引”列的表保存到 Parquet 文件中吗?
PS:
ddf.pivot_table(values="Value", index="Index", columns="Field").compute() 按预期给出结果:
Field A B
Index
1 10.0 100.0
2 20.0 120.0
3 30.0 130.0
Run Code Online (Sandbox Code Playgroud)
并且使用 Pandas 不是解决方案,因为我的数据是 20 GB。
编辑:
我试过
ddf.columns = list(ddf.columns)
dd.to_parquet("1.parq",ddf, write_index=True)
Run Code Online (Sandbox Code Playgroud)
它给了我一个新的错误:
dask.async.TypeError:预期的字节列表
谷歌表明这些错误来自 Tornado 异步库。
这里有两个问题:
pivot_table产生一个分类的列索引,因为您将原始列“字段”分类。将索引写入 parquet 会调用数据框上的 reset_index,而 Pandas 无法向列索引添加新值,因为它是分类的。您可以使用ddf.columns = list(ddf.columns).
索引列具有对象 dtype 但实际上包含整数。整数不是对象列中预期的类型之一,因此您应该转换它。
整个块现在看起来像:
ddf = dd.from_pandas(df,2)
ddf = ddf.categorize("Field")
ddf = ddf.pivot_table(values="Value", index="Index", columns="Field")
ddf.columns = list(ddf.columns)
ddf = ddf.reset_index()
ddf['index'] = ddf.index.astype('int64')
dd.to_parquet("1.parq", ddf)
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
3579 次 |
| 最近记录: |