如何从iPython界面中找出pyspark的内存量?

use*_*607 8 memory configuration apache-spark pyspark

我用命令启动了

IPYTHON=1 MASTER=local[4] pyspark
Run Code Online (Sandbox Code Playgroud)

Spark迎接我

Welcome to spark, version 1.2.1
SparkContext availabel as sc. 
Run Code Online (Sandbox Code Playgroud)

但是使用sc,我无法找到它拥有的内存.如何找到它,如果可能的话,如何将其设置为另一个值.

kar*_*son 15

您可以像这样查询SparkContext的配置:

sc._conf.get('spark.executor.memory')
Run Code Online (Sandbox Code Playgroud)

或者,如果您对驾驶员的记忆感兴趣:

sc._conf.get('spark.driver.memory')
Run Code Online (Sandbox Code Playgroud)

完整配置可以视为元组列表

sc._conf.getAll()
Run Code Online (Sandbox Code Playgroud)

  • 谢谢你用一个答案来解救这个问题,所以我给了一个风滚草的徽章来问这个问题:P >>>"你已经获得了"Tumbleweed"徽章(问一个零得分的问题,没有答案,没有评论和低观点一周)" (3认同)