Din*_*mas 5 python serialization apache-spark pyspark apache-spark-ml
我正在尝试序列化PySpark Pipeline对象,以便可以在以后保存和检索它。使用Python pickle库和PySpark的库进行了尝试PickleSerializer,dumps()调用本身失败了。
使用本机pickle库时提供代码段。
pipeline = Pipeline(stages=[tokenizer, hashingTF, lr])
with open ('myfile', 'wb') as f:
pickle.dump(pipeline,f,2)
with open ('myfile', 'rb') as f:
pipeline1 = pickle.load(f)
Run Code Online (Sandbox Code Playgroud)
运行时出现以下错误:
py4j.protocol.Py4JError: An error occurred while calling o32.__getnewargs__. Trace:
py4j.Py4JException: Method __getnewargs__([]) does not exist
at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:335)
at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:344)
at py4j.Gateway.invoke(Gateway.java:252)
at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:133)
at py4j.commands.CallCommand.execute(CallCommand.java:79)
at py4j.GatewayConnection.run(GatewayConnection.java:209)
at java.lang.Thread.run(Thread.java:785)
Run Code Online (Sandbox Code Playgroud)
是否可以序列化PySpark Pipeline对象?
从技术上讲,您可以轻松腌制Pipeline对象:
from pyspark.ml.pipeline import Pipeline
import pickle
pickle.dumps(Pipeline(stages=[]))
## b'\x80\x03cpyspark.ml.pipeline\nPipeline\nq ...
Run Code Online (Sandbox Code Playgroud)
你不能pickle的是Spark Transformers,Estimators它只是JVM对象的薄包装。如果您确实需要这个,您可以将其包装在一个函数中,例如:
def make_pipeline():
return Pipeline(stages=[Tokenizer(inputCol="text", outputCol="words")])
pickle.dumps(make_pipeline)
## b'\x80\x03c__ ...
Run Code Online (Sandbox Code Playgroud)
但由于它只是一段代码并且不存储任何持久数据,因此看起来不是特别有用。
| 归档时间: |
|
| 查看次数: |
1210 次 |
| 最近记录: |