小编use*_*007的帖子

增加任务大小 spark

在 spark-shell 中执行代码时遇到问题。

[Stage 1:>             (0 + 0) / 16]
17/01/13 06:09:24 WARN TaskSetManager: Stage 1 contains a task of very large size (1057 KB). The maximum recommended task size is 100 KB.
[Stage 1:>             (0 + 4) / 16]
Run Code Online (Sandbox Code Playgroud)

在此警告之后,执行被阻止。

谁能解决?

我试过这个,但它不能解决问题。

val conf = new SparkConf()
    .setAppName("MyApp")
    .setMaster("local[*]")
    .set("spark.driver.maxResultSize", "3g")
    .set("spark.executor.memory" ,"3g");
val sc = new SparkContext(conf);`
Run Code Online (Sandbox Code Playgroud)

scala apache-spark

4
推荐指数
2
解决办法
8297
查看次数

标签 统计

apache-spark ×1

scala ×1