use*_*618 5 hadoop hdfs hadoop-yarn apache-spark pyspark
我在Linux环境中使用hadoop 2.0运行顶级服务,我的Windows机器上安装了Spark.我可以在我的Windows上本地运行Spark.但我正在尝试将我的Windows-Spark指向Hadoop(Linux)端的Yarn以利用Yarn容器.如何在Windows端设置HADOOP_CONF_DIR,以便它可以指向并查看linux端的/ etc/hadoop/conf.谢谢