spark-shell 如何在不事先安装 Scala 的情况下工作?

che*_*gpu 7 apache-spark

我已经下载了 Spark 1.2.0(为 Hadoop 2.4 预构建)。在其快速入门文档中,它说:

它可以在 Scala 或 Python 中使用。

令我困惑的是,我的计算机之前(OS X 10.10)没有单独安装 Scala,但是当我输入spark-shell它时,它运行良好,并且输出显示:

Using Scala version 2.10.4 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_25)
Run Code Online (Sandbox Code Playgroud)

如屏幕截图所示:

在此处输入图片说明

我之前没有安装任何 Scala 发行版。

spark-shell 如何在没有 Scala 的情况下运行?

Jac*_*ski 7

tl;dr Scala 二进制文件已经包含在 Spark 中(使 Spark 用户的生活更轻松)。

下载星火概述您可以阅读需要运行星火什么:

Spark 可以在 Windows 和类 UNIX 系统(例如 Linux、Mac OS)上运行。在一台机器上本地运行很容易——你所需要的只是在你的系统 PATH 上安装 java,或者 JAVA_HOME 环境变量指向 Java 安装。

Spark 在 Java 6+ 和 Python 2.6+ 上运行。对于 Scala API,Spark 1.2.0 使用 Scala 2.10。您将需要使用兼容的 Scala 版本 (2.10.x)。


suz*_*omo 1

Scala程序,包括spark-shell,被编译为Java字节码,可以在Java虚拟机(JVM)上运行。因此,只要安装了JVM,即java命令,就可以运行Scala编写的Spark相关工具。