Scala Spark RDD当前分区数

x89*_*a10 4 scala apache-spark

您如何确定Scala中任意RDD的分区数?

我知道PySpark RDD在其API中定义了getNumPartitions,但是我无法在Scala端找到等效项。

ech*_*cho 5

至少在Spark 1.6.1中有效

rdd.getNumPartitions()
Run Code Online (Sandbox Code Playgroud)