jav*_*dba 32 scala apache-spark pyspark
SparkContext的Scala版本具有该属性
sc.hadoopConfiguration
Run Code Online (Sandbox Code Playgroud)
我已成功使用它来设置Hadoop属性(在Scala中)
例如
sc.hadoopConfiguration.set("my.mapreduce.setting","someVal")
Run Code Online (Sandbox Code Playgroud)
然而,SparkContext的python版本缺少该访问器.有没有办法将Hadoop配置值设置为PySpark上下文使用的Hadoop配置?
小智 58
sc._jsc.hadoopConfiguration().set('my.mapreduce.setting', 'someVal')
Run Code Online (Sandbox Code Playgroud)
应该管用
您可以--conf
在提交作业时使用该参数设置任何 Hadoop 属性。
--conf "spark.hadoop.fs.mapr.trace=debug"
Run Code Online (Sandbox Code Playgroud)
来源:https : //github.com/apache/spark/blob/branch-1.6/core/src/main/scala/org/apache/spark/deploy/SparkHadoopUtil.scala#L105
归档时间: |
|
查看次数: |
23676 次 |
最近记录: |