Spo*_*rty 4 hadoop-yarn apache-spark
我有一个YARN集群,其中一个主节点运行资源管理器和另外两个节点.我能够以"纱线群集"模式从客户端机器提交火花应用程序.有没有办法可以配置集群中的哪个节点启动Spark应用程序主服务器?
我问这个是因为如果应用程序主服务器在主节点中启动它工作正常,但如果它在其他节点启动我得到这个:
重试连接到服务器:0.0.0.0/0.0.0.0:8030.
而这项工作只是被接受而且从不运行
| 归档时间: |
|
| 查看次数: |
1321 次 |
| 最近记录: |