Sau*_*cci 5 scala intellij-idea apache-spark
我想运行一个已经使用sbt package
命令编译的独立Spark脚本。如何设置Scala脚本的正确配置以在IntelliJ IDE中运行我的脚本?当前,我正在使用带有以下命令的命令行来运行它(但例如,我想在IntelliJ中运行以进行进一步的调试):
~/spark-1.2.0/bin/spark-submit --class "CoinPipe" target/scala-2.10/coinpipe_2.10-1.0.jar /training/data/dir 7 12
贝娄是我正在尝试做的快照:
小智 5
我意识到这篇文章很旧,但我遇到了同样的问题并找到了解决方案,所以我想我会在这里发布它。
使用主类创建一个 java 应用程序运行配置:
org.apache.spark.deploy.SparkSubmit
Run Code Online (Sandbox Code Playgroud)VM 选项至少应包括 spark conf 和 jars 的类路径:
-cp "c:\spark\conf\;c:\spark\jars\*"
Run Code Online (Sandbox Code Playgroud)程序参数应包含您的 jar 文件作为第一个参数,然后是您希望传递给程序的实际程序参数:
yourapp.jar arg1 arg2
Run Code Online (Sandbox Code Playgroud)模块的使用类路径应设置为您的模块。
尝试以下步骤:
注意:您可能希望有时重新启动 intelliJ 以获取从 build.sbt 文件中提取的依赖项。