Scala Spark 连接到远程集群

Ale*_*rte 6 scala remote-access apache-spark

我希望连接到远程集群并执行 Spark 进程。因此,根据我的阅读,这是在 SparkConf 中指定的。

 val conf = new SparkConf()
  .setAppName("MyAppName")
  .setMaster("spark://my_ip:7077")
Run Code Online (Sandbox Code Playgroud)

其中 my_ip 是我的集群的 IP 地址。不幸的是,我的连接被拒绝了。所以,我猜必须添加一些凭据才能正确连接。我将如何指定凭据?似乎可以用 .set(key, value) 来完成,但没有这方面的线索。

jam*_*rta 4

缺少两件事:

顺便说一句,如果您使用spark-submit提交作业,这将起作用,以编程方式实现它会更复杂,并且只能使用yarn-client远程设置很棘手的模式。