小编Tob*_*eup的帖子

如何在调试模式下调用pyspark?

我使用Apache Spark 1.4设置了IntelliJ IDEA.

我希望能够将调试点添加到我的Spark Python脚本中,以便我可以轻松地调试它们.

我目前正在运行这一点Python来初始化spark过程

proc = subprocess.Popen([SPARK_SUBMIT_PATH, scriptFile, inputFile], shell=SHELL_OUTPUT, stdout=subprocess.PIPE)

if VERBOSE:
    print proc.stdout.read()
    print proc.stderr.read()
Run Code Online (Sandbox Code Playgroud)

spark-submit最终调用myFirstSparkScript.py,调试模式不从事并正常执行.遗憾的是,编辑Apache Spark源代码并运行自定义副本是不可接受的解决方案.

有谁知道是否有可能在调试模式下使用spark-submit调用Apache Spark脚本?如果是这样,怎么样?

python hadoop intellij-idea python-2.7 apache-spark

19
推荐指数
1
解决办法
1万
查看次数

标签 统计

apache-spark ×1

hadoop ×1

intellij-idea ×1

python ×1

python-2.7 ×1