相关疑难解决方法(0)

如何在SparkSQL中以编程方式连接到Hive Metastore?

我正在使用HiveContext和SparkSQL,我正在尝试连接到远程Hive Metastore,设置hive Metastore的唯一方法是在类路径中包含hive-site.xml(或将其复制到/ etc/spark/CONF /).

有没有办法在不包含hive-site.xml的情况下以编程方式在java代码中设置此参数?如果是这样,使用什么是Spark配置?

hadoop hive apache-spark apache-spark-sql

21
推荐指数
5
解决办法
5万
查看次数

如何使用Hive支持创建SparkSession(未找到"Hive类")?

我正在尝试运行此代码时遇到此错误.

import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;
public class App 
{
    public static void main(String[] args) throws Exception {
        String warehouseLocation = "file:" + System.getProperty("user.dir") + "spark-warehouse";
        SparkSession spark = SparkSession
          .builder().master("local")
          .appName("Java Spark Hive Example")
          .config("spark.sql.warehouse.dir", warehouseLocation).enableHiveSupport()
          .getOrCreate();

        String path = "/home/cloudera/Downloads/NetBeansProjects/sparksql1/src/test/Employee.json";

        spark.sql("CREATE TABLE IF NOT EXISTS src (key INT, value STRING)");
        spark.sql("LOAD DATA LOCAL INPATH '"+path+"' INTO TABLE src");



        //load from HDFS

         Dataset<Row> df = spark.read().json(path);

         df.registerTempTable("temp_table");

         spark.sql("create table TEST.employee as select * from temp_table");

         df.printSchema();
         df.show();

        } …
Run Code Online (Sandbox Code Playgroud)

java hive apache-spark apache-spark-sql

16
推荐指数
1
解决办法
2万
查看次数

标签 统计

apache-spark ×2

apache-spark-sql ×2

hive ×2

hadoop ×1

java ×1