2 hadoop hadoop-yarn apache-spark
我已经使用Eclipse在Java中开发了一个Spark应用程序。
到目前为止,我通过将主机的地址配置为“ local [*]”来使用独立模式。
现在,我想将此应用程序部署在Yarn群集上。
我找到的唯一官方文档是http://spark.apache.org/docs/latest/running-on-yarn.html
与用于在mesos群集上或独立部署的文档不同(http://spark.apache.org/docs/latest/running-on-mesos.html),在SparkContext中没有任何URL可以用作主服务器的地址。
显然,我必须使用命令行命令在Yarn上部署spark。
您是否知道是否可以像独立模式和Mesos模式一样在SparkContext中配置主控地址?
实际上有一个URL。
确保
HADOOP_CONF_DIR
或YARN_CONF_DIR
指向包含Hadoop集群的(客户端)配置文件的目录。这些配置用于写入HDFS并连接到YARN ResourceManager
你应该有至少hdfs-site.xml
,yarn-site.xml
和core-site.xml
文件集群您连接到所有指定为Hadoop的设置和URL。
yarn-site.xml
包括yarn.nodemanager.hostname
和的一些属性yarn.nodemanager.address
。
由于该地址的默认值为 ${yarn.nodemanager.hostname}:0
,因此您可能只需要设置主机名。
归档时间: |
|
查看次数: |
1355 次 |
最近记录: |