我怎么知道spark-core版本?

Fra*_*kie 6 hadoop hortonworks-data-platform apache-spark

我在hdp中使用spark 1.5.2,hadoop的版本是2.7.1.2.3.4.7-4.当我尝试在像这样的maven pom文件中添加jar时

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.10</artifactId>
    <version>1.5.2</version>
</dependency>
Run Code Online (Sandbox Code Playgroud)

我不知道在哪里可以找到spark-core的版本.有2.11和2.10.任何帮助表示赞赏.

eli*_*sah 5

您提到的那个版本表示您希望将哪个版本的Scala用于spark-core.

您需要在群集上检查Scala的版本,以了解它是否是您需要的2.10或2.11.