在Spark\PySpark中保存\ load模型的正确方法是什么

art*_*vel 13 python apache-spark pyspark apache-spark-mllib

我正在使用PySpark和MLlib使用Spark 1.3.0,我需要保存并加载我的模型.我使用这样的代码(取自官方文档)

from pyspark.mllib.recommendation import ALS, MatrixFactorizationModel, Rating

data = sc.textFile("data/mllib/als/test.data")
ratings = data.map(lambda l: l.split(',')).map(lambda l: Rating(int(l[0]), int(l[1]), float(l[2])))
rank = 10
numIterations = 20
model = ALS.train(ratings, rank, numIterations)
testdata = ratings.map(lambda p: (p[0], p[1]))
predictions = model.predictAll(testdata).map(lambda r: ((r[0], r[1]), r[2]))
predictions.collect() # shows me some predictions
model.save(sc, "model0")

# Trying to load saved model and work with it
model0 = MatrixFactorizationModel.load(sc, "model0")
predictions0 = model0.predictAll(testdata).map(lambda r: ((r[0], r[1]), r[2]))
Run Code Online (Sandbox Code Playgroud)

在我尝试使用model0之后,我得到一个很长的回溯,结束于此:

Py4JError: An error occurred while calling o70.predict. Trace:
py4j.Py4JException: Method predict([class org.apache.spark.api.java.JavaRDD]) does not exist
    at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:333)
    at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:342)
    at py4j.Gateway.invoke(Gateway.java:252)
    at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:133)
    at py4j.commands.CallCommand.execute(CallCommand.java:79)
    at py4j.GatewayConnection.run(GatewayConnection.java:207)
    at java.lang.Thread.run(Thread.java:745)
Run Code Online (Sandbox Code Playgroud)

所以我的问题是 - 我做错了吗?据我调试,我的模型存储(本地和HDFS),它们包含许多带有一些数据的文件.我有一种感觉,模型保存正确但可能没有正确加载.我也用Google搜索,但没有发现任何相关内容.

看起来这个save\load功能最近在Spark 1.3.0中添加了,因此我还有另外一个问题 - 在1.3.0版本之前保存\ load模型的推荐方法是什么?我没有找到任何好方法来做到这一点,至少对于Python来说.我也尝试了Pickle,但遇到了与此处描述的相同的问题在python中保存Apache Spark mllib模型

Nei*_*eil 7

保存模型的一种方法(在Scala中;但在Python中可能类似):

// persist model to HDFS
sc.parallelize(Seq(model), 1).saveAsObjectFile("linReg.model")
Run Code Online (Sandbox Code Playgroud)

然后可以将已保存的模型加载为:

val linRegModel = sc.objectFile[LinearRegressionModel]("linReg.model").first()
Run Code Online (Sandbox Code Playgroud)

另见相关问题

有关详细信息,请参阅(参考)


emm*_*ras 5

截至2015年3月28日(您的问题最后一次编辑后的第二天),此请求已合并,此问题已得到解决.

您只需要从GitHub(git clone git://github.com/apache/spark.git -b branch-1.3)克隆/获取最新版本,然后构建它(按照说明spark/README.md)$ mvn -DskipTests clean package.

注意:我在构建Spark时遇到了麻烦,因为Maven很不稳定.我通过使用$ update-alternatives --config mvn并选择具有优先级:150的"路径" 解决了这个问题,无论这意味着什么.这里解释.


Cha*_*den 2

我也遇到了这个问题——它看起来像是一个错误。我已向Spark jira报告。