在Maven项目中使用HiveContext

Blu*_*hot 3 eclipse scala maven apache-spark apache-spark-sql

我使用Maven构建Spark-1.2.1以使用以下命令启用Hive支持: mvn -Pyarn -Phadoop-2.4 -Dhadoop.version=2.4.0 -Phive -DskipTests clean package

这导致在文件/spark-1.2.1/core/target/scala-2.10/classes夹中生成一些类文件

现在我如何在我的Eclipse + Maven项目中使用这个新构建的Spark ?我想HiveContext在Eclipse中使用Spark-SQL的类.

vik*_*kas 18

当您打算在java程序中使用SparkSQL时,您可以简单地将相应的依赖项添加到您的maven项目中,并且您可以使用所需的类.使用hive支持构建spark可以启动带有hive支持的spark守护进程.它生成一个程序集jar,需要复制到所有spark worker节点.有关详细信息,请参阅此处

使HiveContext工作的Maven依赖项:

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.10</artifactId>
    <version>1.2.1</version>
</dependency>
<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-sql_2.10</artifactId>
    <version>1.2.1</version>
</dependency>
<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-hive_2.10</artifactId>
    <version>1.2.1</version>
</dependency>
Run Code Online (Sandbox Code Playgroud)