Aiv*_*ras 5 scala apache-spark parquet
我想将我的集合写入 .parquet 文件,以便以后可以使用 Spark 读取它。
到目前为止,我正在使用以下代码创建文件:
package com.contrib.parquet
import org.apache.avro.SchemaBuilder
import org.apache.avro.reflect.ReflectData
import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.fs.Path
import org.apache.parquet.avro.AvroParquetWriter
import org.apache.parquet.hadoop.{ParquetFileWriter, ParquetWriter}
import org.apache.parquet.hadoop.metadata.CompressionCodecName
object ParquetWriter {
def main(args: Array[String]): Unit = {
val schema = SchemaBuilder
.record("Record")
.fields()
.requiredString("name")
.requiredInt("id")
.endRecord()
val writer: ParquetWriter[Record] = AvroParquetWriter
.builder(new Path("/tmp/parquetResult"))
.withConf(new Configuration)
.withDataModel(ReflectData.get)
.withCompressionCodec(CompressionCodecName.SNAPPY)
.withSchema(schema)
.withWriteMode(ParquetFileWriter.Mode.OVERWRITE)
.build()
Seq(Record("nameOne", 1), Record("nameTwo", 2)).foreach(writer.write)
writer.close()
}
case class Record(name: String, id: Int)
}
Run Code Online (Sandbox Code Playgroud)
它成功地创建了一个镶木地板文件。当我尝试使用 spark 读取该文件时,java.lang.NoSuchMethodError: org.apache.parquet.column.values.ValuesReader.initFromPage
出现错误。
火花代码:
val master = "local[4]"
val sparkCtx = SparkSession
.builder()
.appName("ParquetReader")
.master(master)
.getOrCreate()
val schema = Encoders.product[Record].schema
val df = sparkCtx.read.parquet("/tmp/parquetResult")
df.show(100, false)
Run Code Online (Sandbox Code Playgroud)
如何编写 Parquet 文件以便可以使用 Spark 读取它们?我不想让本地 Spark 应用程序只是为了编写这个文件。
归档时间: |
|
查看次数: |
1509 次 |
最近记录: |