相关疑难解决方法(0)

为什么Spark不使用本地计算机上的所有核心

当我在Spark-Shell中运行一些Apache Spark示例或作为一项工作时,我无法在一台机器上实现完全核心利用率.例如:

var textColumn = sc.textFile("/home/someuser/largefile.txt").cache()
var distinctWordCount = textColumn.flatMap(line => line.split('\0'))
                             .map(word => (word, 1))
                             .reduceByKey(_+_)
                             .count()
Run Code Online (Sandbox Code Playgroud)

运行此脚本时,我通常只在我的8核计算机上看到1个或2个活动核心.Spark不应该和它并行吗?

parallel-processing mapreduce apache-spark

6
推荐指数
2
解决办法
5230
查看次数