小编Rei*_*jay的帖子

任务序列化结果的总大小大于spark.driver.maxResultSize

美好的一天.

我正在运行一个用于解析一些日志文件的开发代码.如果我尝试解析较少的文件,我的代码将顺利运行.但是当我增加需要解析的日志文件的数量时,它将返回不同的错误,例如too many open filesTotal size of serialized results of tasks is bigger than spark.driver.maxResultSize.

我试图增加spark.driver.maxResultSize但错误仍然存​​在.

你能否就如何解决这个问题给我任何想法?

谢谢.

示例错误

apache-spark pyspark

12
推荐指数
1
解决办法
1万
查看次数

标签 统计

apache-spark ×1

pyspark ×1