在Spark中读取Avro文件

Gay*_*tri 5 scala apache-spark apache-spark-sql apache-zeppelin

我已经将avro文件读入spark RDD,需要将其转换为sql数据框。我怎么做。

这是我到目前为止所做的。

import org.apache.avro.generic.GenericRecord
import org.apache.avro.mapred.{AvroInputFormat, AvroWrapper}
import org.apache.hadoop.io.NullWritable

val path = "hdfs://dds-nameservice/user/ghagh/"
val avroRDD = sc.hadoopFile[AvroWrapper[GenericRecord], NullWritable, AvroInputFormat[GenericRecord]](path)
Run Code Online (Sandbox Code Playgroud)

当我做:

avro.take(1)
Run Code Online (Sandbox Code Playgroud)

我回来

res1: Array[(org.apache.avro.mapred.AvroWrapper[org.apache.avro.generic.GenericRecord], org.apache.hadoop.io.NullWritable)] = Array(({"column1": "value1", "column2": "value2", "column3": value3,...
Run Code Online (Sandbox Code Playgroud)

如何将其转换为SparkSQL数据框?

我正在使用Spark 1.6

谁能告诉我是否有解决这个问题的简单方法?

hi-*_*zir 9

因为DataFrame我会直接使用Avro 数据源

  • `--packages org.apache.spark:spark-avro_2.11:2.4.4` 也可以工作,而 `--packages org.apache.spark:spark-avro_2.12:2.4.4` 则不起作用。详细信息请参阅[问题](https://issues.apache.org/jira/browse/SPARK-27623) (2认同)