如何将Scala Spark DataFrames架构导出到Json文件?

Che*_* SP 3 scala dataframe apache-spark apache-spark-sql spark-dataframe

我已经尝试df.write.json("myNewJson")了虽然没有抛出任何错误或警告它只是不在目标中创建任何文件.df.write.format("json").save("/MyDir/")似乎也有同样的问题.我在这里错过了一些陈述吗?

Che*_* SP 7

发布适用于那些可能会遇到同样问题的人的确切代码.我能够使用以下语句将DataFrame模式导出到Json文件:

import java.io._

val a = df.schema.json
val writer = new PrintWriter(new File("/home/file"))
writer.write(a)
writer.close()
Run Code Online (Sandbox Code Playgroud)