Kas*_*as1 5 apache-spark pyspark azure-databricks
我正在研究 Azure databricks。我的驱动程序节点和工作程序节点规格为:14.0 GB 内存、4 核、0.75 DBU Standard_DS3_v2。
我的 pyspark 笔记本因 Java 堆空间错误而失败。我上网查了一下,有一个建议是增加驱动内存。我正在尝试在笔记本中使用以下conf参数
spark.conf.get("spark.driver.memory")
Run Code Online (Sandbox Code Playgroud)
获取驱动程序内存。但我的笔记本电脑因错误而失败。
java.util.NoSuchElementException: spark.driver.memory
Run Code Online (Sandbox Code Playgroud)
知道如何检查驱动程序内存并更改其值吗?
| 归档时间: |
|
| 查看次数: |
14368 次 |
| 最近记录: |