使用模式将带有Spark的AVRO消息转换为DataFrame

Sas*_*ter 13 scala avro apache-kafka apache-spark spark-streaming

有没有使用模式转换方式从消息?用户记录的模式文件:

{
  "fields": [
    { "name": "firstName", "type": "string" },
    { "name": "lastName", "type": "string" }
  ],
  "name": "user",
  "type": "record"
}
Run Code Online (Sandbox Code Playgroud)

来自SqlNetworkWordCount示例Kafka,Spark和Avro的代码片段- 第3部分,生成和使用Avro消息来读取消息.

object Injection {
  val parser = new Schema.Parser()
  val schema = parser.parse(getClass.getResourceAsStream("/user_schema.json"))
  val injection: Injection[GenericRecord, Array[Byte]] = GenericAvroCodecs.toBinary(schema)
}

...

messages.foreachRDD((rdd: RDD[(String, Array[Byte])]) => {
  val sqlContext = SQLContextSingleton.getInstance(rdd.sparkContext)
  import sqlContext.implicits._

  val df = rdd.map(message => Injection.injection.invert(message._2).get)
    .map(record => User(record.get("firstName").toString, records.get("lastName").toString)).toDF()

  df.show()
})

case class User(firstName: String, lastName: String)
Run Code Online (Sandbox Code Playgroud)

不知何故,我找不到另一种方法,而不是使用案例类将AVRO消息转换为DataFrame.是否有可能使用架构?我正在使用Spark 1.6.2Kafka 0.10.

完整的代码,以防您感兴趣.

import com.twitter.bijection.Injection
import com.twitter.bijection.avro.GenericAvroCodecs
import kafka.serializer.{DefaultDecoder, StringDecoder}
import org.apache.avro.Schema
import org.apache.avro.generic.GenericRecord
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.SQLContext
import org.apache.spark.streaming.kafka._
import org.apache.spark.streaming.{Seconds, StreamingContext, Time}
import org.apache.spark.{SparkConf, SparkContext}

object ReadMessagesFromKafka {
  object Injection {
    val parser = new Schema.Parser()
    val schema = parser.parse(getClass.getResourceAsStream("/user_schema.json"))
    val injection: Injection[GenericRecord, Array[Byte]] = GenericAvroCodecs.toBinary(schema)
  }

  def main(args: Array[String]) {
    val brokers = "127.0.0.1:9092"
    val topics = "test"

    // Create context with 2 second batch interval
    val sparkConf = new SparkConf().setAppName("ReadMessagesFromKafka").setMaster("local[*]")
    val ssc = new StreamingContext(sparkConf, Seconds(2))

    // Create direct kafka stream with brokers and topics
    val topicsSet = topics.split(",").toSet
    val kafkaParams = Map[String, String]("metadata.broker.list" -> brokers)
    val messages = KafkaUtils.createDirectStream[String, Array[Byte], StringDecoder, DefaultDecoder](
  ssc, kafkaParams, topicsSet)

    messages.foreachRDD((rdd: RDD[(String, Array[Byte])]) => {
      val sqlContext = SQLContextSingleton.getInstance(rdd.sparkContext)
      import sqlContext.implicits._

      val df = rdd.map(message => Injection.injection.invert(message._2).get)
    .map(record => User(record.get("firstName").toString, records.get("lastName").toString)).toDF()

      df.show()
    })

    // Start the computation
    ssc.start()
    ssc.awaitTermination()
  }
}

/** Case class for converting RDD to DataFrame */
case class User(firstName: String, lastName: String)

/** Lazily instantiated singleton instance of SQLContext */
object SQLContextSingleton {
  @transient  private var instance: SQLContext = _

  def getInstance(sparkContext: SparkContext): SQLContext = {
    if (instance == null) {
      instance = new SQLContext(sparkContext)
    }
    instance
  }
}
Run Code Online (Sandbox Code Playgroud)

Tal*_*ffe 4

OP可能解决了这个问题,但为了将来的参考,我一般性地解决了这个问题,所以认为在这里发布可能会有所帮助。

因此,一般来说,您应该将 Avro 模式转换为 Spark StructType,并将 RDD 中的对象转换为 Row[Any],然后使用:

spark.createDataFrame(<RDD[obj] mapped to RDD[Row}>,<schema as StructType>
Run Code Online (Sandbox Code Playgroud)

为了转换 Avro 模式,我使用了Spark-avro,如下所示:

SchemaConverters.toSqlType(avroSchema).dataType.asInstanceOf[StructType]
Run Code Online (Sandbox Code Playgroud)

RDD 的转换更加棘手..如果您的模式很简单,您可能只需做一个简单的映射..像这样:

rdd.map(obj=>{
    val seq = (obj.getName(),obj.getAge()
    Row.fromSeq(seq))
    })
Run Code Online (Sandbox Code Playgroud)

在此示例中,对象有 2 个字段名称和年龄。

重要的是确保 Row 中的元素与之前 StructType 中字段的顺序和类型相匹配。

在我的特定情况下,我有一个更复杂的对象,我想对其进行一般处理以支持未来的模式更改,因此我的代码要复杂得多。

OP建议的方法也应该适用于某些情况,但很难暗示复杂的对象(不是原始或情况类)

另一个提示是,如果类中有一个类,则应该将该类转换为 Row,以便包装类将转换为类似以下内容的内容:

Row(Any,Any,Any,Row,...)
Run Code Online (Sandbox Code Playgroud)

您还可以查看我之前提到的 Spark-avro 项目,了解如何将对象转换为行。我自己使用了其中的一些逻辑

如果有人阅读本文需要进一步帮助,请在评论中询问我,我会尽力提供帮助

类似的问题也在这里得到解决。