相关疑难解决方法(0)

Apache Spark:获取每个分区的记录数

我想查看如何获取有关每个分区的信息,例如总数.当使用部署模式作为纱线群集提交Spark作业以便在控制台上记录或打印时,驱动程序端的每个分区中的记录数.

hadoop scala partitioning apache-spark apache-spark-sql

13
推荐指数
4
解决办法
9335
查看次数