bra*_*rin 6 python apache-spark pyspark apache-spark-mllib
我正在使用Spark构建随机森林模型,我想保存它以便以后使用。我在没有HDFS的pyspark(Spark 2.0.1)上运行此文件,因此文件被保存到本地文件系统。
我已经尝试这样做:
import pyspark.sql.types as T
from pyspark.ml.feature import VectorAssembler
from pyspark.ml.classification import RandomForestClassifier
data = [[0, 0, 0.],
[0, 1, 1.],
[1, 0, 1.],
[1, 1, 0.]]
schema = T.StructType([
T.StructField('a', T.IntegerType(), True),
T.StructField('b', T.IntegerType(), True),
T.StructField('label', T.DoubleType(), True)])
df = sqlContext.createDataFrame(data, schema)
assembler = VectorAssembler(inputCols=['a', 'b'], outputCol='features')
df = assembler.transform(df)
classifier = RandomForestClassifier(numTrees=10, maxDepth=15, labelCol='label', featuresCol='features')
model = classifier.fit(df)
model.write().overwrite().save('saved_model')
Run Code Online (Sandbox Code Playgroud)
然后,加载模型:
from pyspark.ml.classification import RandomForestClassificationModel
loaded_model = RandomForestClassificationModel.load('saved_model')
Run Code Online (Sandbox Code Playgroud)
但是我得到这个错误:
Py4JJavaError: An error occurred while calling o108.load.
: java.lang.UnsupportedOperationException: empty collection
Run Code Online (Sandbox Code Playgroud)
我不确定它指的是哪个集合。有什么想法如何正确加载(或保存)模型吗?
小智 0
在 Spark 集群上遇到了类似的问题,jupyter 笔记本安装在 4 个不同的 docker 容器上。通过使用相同的持久文件夹解决了该问题,该文件夹可以由所有 docker 容器更新并将模型保存在其中。因此建议确保您使用相同的持久文件夹,并且 Spark 和您的 python 程序可以更新它