use*_*337 5 hadoop apache-spark
我正在尝试使用yarn运行Spark,并且遇到了以下错误:
线程“主”中的异常java.lang.Exception:使用主线程“ yarn”运行时,HADOOP_CONF_DIR或者YARN_CONF_DIR必须在环境中进行设置。
我不确定“环境”在哪里(哪个特定文件?)。我尝试使用:
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
Run Code Online (Sandbox Code Playgroud)
在bash_profile中,但这似乎无济于事。
使用Yarn运行spark时,您需要在其中添加以下行 spark-env.sh
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
Run Code Online (Sandbox Code Playgroud)
注意:检查$ HADOOP_HOME / etc / hadoop在您的环境中是否正确。spark-env.sh也包含HADOOP_HOME的导出。
| 归档时间: |
|
| 查看次数: |
11486 次 |
| 最近记录: |