我有一个类似数据库的对象,其中包含许多 dask 数据帧。我想处理数据,保存并在第二天重新加载以继续分析。
因此,我尝试使用pickle保存dask数据帧(不是计算结果,只是“计算计划”本身)。显然,它是有效的(至少,如果我在同一台机器上解开对象)......但是有一些陷阱吗?
一般来说,通常是安全的。但有一些注意事项:
df.apply(lambda x: x)那么内部函数将无法pickle。但是它仍然可以使用cloudpickle进行序列化dask.distributed Future对象(例如Executor.persist在集群上使用时会发生这种情况),那么这些对象当前不可序列化。| 归档时间: |
|
| 查看次数: |
1118 次 |
| 最近记录: |