Blu*_*hot 3 eclipse scala maven apache-spark apache-spark-sql
我使用Maven构建Spark-1.2.1以使用以下命令启用Hive支持:
mvn -Pyarn -Phadoop-2.4 -Dhadoop.version=2.4.0 -Phive -DskipTests clean package
这导致在文件/spark-1.2.1/core/target/scala-2.10/classes夹中生成一些类文件
现在我如何在我的Eclipse + Maven项目中使用这个新构建的Spark ?我想HiveContext在Eclipse中使用Spark-SQL的类.
vik*_*kas 18
当您打算在java程序中使用SparkSQL时,您可以简单地将相应的依赖项添加到您的maven项目中,并且您可以使用所需的类.使用hive支持构建spark可以启动带有hive支持的spark守护进程.它生成一个程序集jar,需要复制到所有spark worker节点.有关详细信息,请参阅此处
使HiveContext工作的Maven依赖项:
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.2.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.10</artifactId>
<version>1.2.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.10</artifactId>
<version>1.2.1</version>
</dependency>
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
9721 次 |
| 最近记录: |