我使用Apache Spark 1.4设置了IntelliJ IDEA.
我希望能够将调试点添加到我的Spark Python脚本中,以便我可以轻松地调试它们.
我目前正在运行这一点Python来初始化spark过程
proc = subprocess.Popen([SPARK_SUBMIT_PATH, scriptFile, inputFile], shell=SHELL_OUTPUT, stdout=subprocess.PIPE)
if VERBOSE:
print proc.stdout.read()
print proc.stderr.read()
Run Code Online (Sandbox Code Playgroud)
当spark-submit最终调用myFirstSparkScript.py,调试模式不从事并正常执行.遗憾的是,编辑Apache Spark源代码并运行自定义副本是不可接受的解决方案.
有谁知道是否有可能在调试模式下使用spark-submit调用Apache Spark脚本?如果是这样,怎么样?