相关疑难解决方法(0)

如何从我的Python Spark脚本登录

我有一个我运行的Python Spark程序spark-submit.我想把日志语句放在其中.

logging.info("This is an informative message.")
logging.debug("This is a debug message.")
Run Code Online (Sandbox Code Playgroud)

我想使用Spark正在使用的相同记录器,以便日志消息以相同的格式出现,并且级别由相同的配置文件控制.我该怎么做呢?

我已经尝试将logging语句放在代码中并以a开头logging.getLogger().在这两种情况下,我都看到Spark的日志消息,但不是我的.我一直在关注Python日志记录文档,但还是无法从中找到它.

不确定这是否是提交给Spark的脚本特有的,或者我不了解日志记录的工作原理.

python logging apache-spark

36
推荐指数
4
解决办法
4万
查看次数

标签 统计

apache-spark ×1

logging ×1

python ×1