小编Vin*_*Vin的帖子

在 Spark 中获取 Hive 表的 HDFS 位置

我正在尝试使用以下查询从 Spark 中的 Hive 分区表解析位置:

val dsc_table = spark.sql("DESCRIBE FORMATTED data_db.part_table")
Run Code Online (Sandbox Code Playgroud)

我无法在 Spark 中找到任何查询或任何其他方式来专门从此查询中选择位置列。

hive scala hiveql apache-spark apache-spark-sql

6
推荐指数
1
解决办法
8558
查看次数

Spark:Split 不是 org.apache.spark.sql.Row 的成员

下面是我来自 Spark 1.6 的代码。我正在尝试将其转换为 Spark 2.3,但在使用 split 时出现错误。

Spark 1.6 代码:

val file = spark.textFile(args(0))
val mapping = file.map(_.split('/t')).map(a => a(1))
mapping.saveAsTextFile(args(1))
Run Code Online (Sandbox Code Playgroud)

Spark 2.3 代码:

val file = spark.read.text(args(0))
val mapping = file.map(_.split('/t')).map(a => a(1)) //Getting Error Here
mapping.write.text(args(1))
Run Code Online (Sandbox Code Playgroud)

错误信息:

value split is not a member of org.apache.spark.sql.Row
Run Code Online (Sandbox Code Playgroud)

scala apache-spark rdd linux-disk-free

3
推荐指数
1
解决办法
4281
查看次数