Spark无法看到hive外部表

Lev*_*Lev 0 hadoop hive amazon-web-services emr apache-spark

我是Spark和AWS的noobie.

我在AWS中有一个DynamoDB表.我在带有hive的EMR上创建了一个Spark集群.使用hive shell,我创建了外部表"RawData"以连接到DynamoDB.

现在,当我使用DynamoDB依赖jars启动spark-shell时,--jars /usr/share/aws/emr/ddb/lib/emr-ddb-hive.jar,/usr/share/aws/emr/ddb/lib/emr-ddb-hadoop.jar 我可以使用HiveContext 查询表"RawData"并获取结果.但是当我使用spark-submit提交我的Spark程序时,我在终端中看到一些spark异常,并在日志中发现:" org.apache.spark.sql.AnalysisException:没有这样的表RawData ".

这就是我创建集群的方式: aws emr create-cluster --name MyCluster --release-label emr-4.0.0 --applications Name=Spark Name=Hive ...

请告诉我我做错了什么.列夫

Lev*_*Lev 6

我发现了submit命令中缺少的内容.我不得不添加--files /etc/hive/conf/hive-site.xmlspark-submit的参数之一.