当我们想要多次使用它时,我们可以将RDD持久存储到内存和/或磁盘中.但是,我们以后必须自己解除它们,或者Spark是否会进行某种垃圾收集并在不再需要RDD时解除它的作用?我注意到如果我自己调用unpersist函数,我的性能会变慢.
hadoop distributed-computing bigdata apache-spark rdd
apache-spark ×1
bigdata ×1
distributed-computing ×1
hadoop ×1
rdd ×1