在 Linux 上运行 Spark:$JAVA_HOME 未设置错误

Mar*_*scu 6 linux java-home apache-spark ubuntu-16.04

我想配置spark-2.0.0-bin-hadoop2.7Ubuntu 16.04.1 LTS。我已经设定

export JAVA_HOME=/home/marc/jdk1.8.0_101
export SCALA_HOME=/home/marc/scala-2.11.8
export SPARK_HOME=/home/marc/spark-2.0.0-bin-hadoop2.7
export PATH=$PATH:$SCALA_HOME/bin:$JAVA_HOME/bin
Run Code Online (Sandbox Code Playgroud)

在来自 spark/sbin 文件夹.bashrcstart-all.sh文件的末尾并包含在文件中

当我输入时,echo $JAVA_HOME它给了我正确的路径/home/marc/jdk1.8.0_101

但是当我打电话 sbin/start-all.sh

它给了我以下错误

本地主机:无法启动 org.apache.spark.deploy.worker.Worker:本地主机:JAVA_HOME 未设置

我试图关注类似的主题,但找不到问题的解决方案。任何帮助将非常感激。

Gui*_*gas 16

尝试在您的计算机上安装 Java:

首先,检查它是否存在:

java -version
Run Code Online (Sandbox Code Playgroud)

如果没有安装:

sudo apt-get update
sudo apt-get install openjdk-8-jdk
Run Code Online (Sandbox Code Playgroud)

这应该可以解决问题。

  • 看来它确实解决了我的问题,也解决了很多其他人的问题。 (2认同)

小智 9

您需要修改“sbin”中名为“spark-config.sh”的文件。在这个文件中添加你的JAVA_HOME,然后一切就OK了。