小编apa*_*tni的帖子

如何从Beeline或任何JDBC客户端运行Spark作业上的Hive?

我试图在Spark查询上运行Hive(使用Spark作为执行引擎进行Hive查询).我已经在hive-site.xml中设置了它

我已经启动了一个hiveserver2,并尝试使用Beeline在同一台机器上连接它,如下所示:

$ hiveserver2 &
$ $HIVE_HOME/bin/beeline -u jdbc:hive2://myIP:10000 -e "select count(*) from item;"  
Run Code Online (Sandbox Code Playgroud)

但工作没有提交,我得到以下的恐惧

Error: Error while processing statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask (state=08S01,code=1)
Run Code Online (Sandbox Code Playgroud)

以下是与Spark上的Hive一起正常工作:

使用Hive CLI:

$ $HIVE_HOME/bin/hive -e "select count(*) from item;"
Run Code Online (Sandbox Code Playgroud)

使用Beeline嵌入模式:

$ $HIVE_HOME/bin/beeline -u jdbc:hive2:// -e "select count(*) from item;"
Run Code Online (Sandbox Code Playgroud)

PS:hive-site.xml包含以下属性:

<property>
<name>hive.execution.engine</name>
<value>spark</value>
</property>

<property>
<name>spark.master</name>
<value>yarn-cluster</value>
</property>

<property>
<name>spark.eventLog.enabled</name>
<value>true</value>
</property>

<property>
<name>spark.eventLog.dir</name>
<value>file:///tmp/spark-events</value>
</property>

<property>
<name>spark.executor.memory</name>
<value>512m</value>
</property>

<property>
<name>spark.serializer</name>
<value>org.apache.spark.serializer.KryoSerializer</value>
</property>
Run Code Online (Sandbox Code Playgroud)

编辑:在日志中找到:

INFO  [stderr-redir-1]: client.SparkClientImpl …
Run Code Online (Sandbox Code Playgroud)

hadoop hive jdbc apache-spark

1
推荐指数
1
解决办法
4535
查看次数

标签 统计

apache-spark ×1

hadoop ×1

hive ×1

jdbc ×1