相关疑难解决方法(0)

当Spark意识到它不再被使用时,Spark会不会自己解决它?

当我们想要多次使用它时,我们可以将RDD持久存储到内存和/或磁盘中.但是,我们以后必须自己解除它们,或者Spark是否会进行某种垃圾收集并在不再需要RDD时解除它的作用?我注意到如果我自己调用unpersist函数,我的性能会变慢.

hadoop distributed-computing bigdata apache-spark rdd

29
推荐指数
1
解决办法
6332
查看次数