如何在IntelliJ IDEA中设置Spark应用程序的日志记录级别?

Nab*_*egh 8 scala intellij-idea apache-spark

我正在通过SBT创建IntelliJ中的Scala项目.该项目将Spark作为其依赖项之一.我还处于开发阶段,所以一切都在我的本地机器上运行.

例如,如何更改日志级别等Spark配置?

ngt*_*hoa 7

如果您正在使用IDE进行本地开发,则可以在运行时更改日志级别:

LogManager.getRootLogger.setLevel(Level.ALL)

Ps:在代码中创建SparkContext/SQLContext后放置该行.

  • 它不适合我.我试过`Level.OFF`,`Level.ERROR`但我总是得到`INFO`日志消息.我正在使用spark 2.1.0 (3认同)

小智 7

在Eclipse下为我设置SparkContext上的日志级别

spark.sparkContext.setLogLevel("WARN")  
Run Code Online (Sandbox Code Playgroud)