Mic*_*ael 5 hadoop-yarn apache-spark pyspark
我在纱线簇上运行火花。我试图启动历史服务器
./start-history-server.sh
Run Code Online (Sandbox Code Playgroud)
但出现以下错误。
starting org.apache.spark.deploy.history.HistoryServer, logging to /home/abc/spark/spark-1.5.1-bin-hadoop2.6/sbin/../logs/spark-abc-org.apache.spark.deploy.history.HistoryServer-1-abc-Efg.out
failed to launch org.apache.spark.deploy.history.HistoryServer:
at org.apache.spark.deploy.history.FsHistoryProvider.<init>(FsHistoryProvider.scala:47)
... 6 more
full log in /home/abc/spark/spark-1.5.1-bin-hadoop2.6/sbin/../logs/spark-abc-org.apache.spark.deploy.history.HistoryServer-1-abc-Efg.out
Run Code Online (Sandbox Code Playgroud)
我已将 spark.eventLog.enabled = true 和 spark.history.fs.logDirectory 和 spark.eventLog.dir 设置为 hdfs 日志记录目录。
为什么我无法启动历史服务器?
更新 1:
谢谢stf告诉我查看日志文件;我不知道它存在!
我意识到我的问题出在我在spark-env.sh 中的设置中
export SPARK_HISTORY_OPTS="-Dspark.eventLog.enabled=true -Dspark.eventLog.dir=hdfs:///localhost/eventLogging spark.history.fs.logDirectory=hdfs:///localhost/eventLogging"
Run Code Online (Sandbox Code Playgroud)
正斜杠变成点
Error: Could not find or load main class spark.history.fs.logDirectory=hdfs:...localhost.eventLogging
Run Code Online (Sandbox Code Playgroud)
知道如何防止这种情况发生吗?
更新 2: 在 stf 的帮助下解决了这个问题。spark-env.sh 中的正确设置是
SPARK_HISTORY_OPTS="$SPARK_HISTORY_OPTS -Dspark.eventLog.enabled=true -Dspark.eventLog.dir=hdfs://localhost/eventLogging -Dspark.history.fs.logDirectory=hdfs://localhost/eventLogging"
Run Code Online (Sandbox Code Playgroud)
对于那些仍然遇到此错误并且评论讨论没有帮助的人。以下为我解决了这个问题。确保您有以下内容spark/conf/spark-defaults.conf
spark.eventLog.enabled true
spark.eventLog.dir /path/to/spark/logs
spark.history.fs.logDirectory /path/to/spark/logs
Run Code Online (Sandbox Code Playgroud)
然后运行spark/sbin/start-history-server.sh /path/to/spark/logs
| 归档时间: |
|
| 查看次数: |
5742 次 |
| 最近记录: |