luc*_*kim 18 json scala dataframe apache-spark
我想将下面的字符串变量转换为spark上的数据帧.
val jsonStr = "{ "metadata": { "key": 84896, "value": 54 }}"
Run Code Online (Sandbox Code Playgroud)
我知道如何从json文件创建数据帧.
sqlContext.read.json("file.json")
Run Code Online (Sandbox Code Playgroud)
但我不知道如何从字符串变量创建数据帧.
如何将json String变量转换为dataframe.
Jea*_*art 42
对于Spark 2.2+:
import spark.implicits._
val jsonStr = """{ "metadata": { "key": 84896, "value": 54 }}"""
val df = spark.read.json(Seq(jsonStr).toDS)
Run Code Online (Sandbox Code Playgroud)
对于旧版本:
val events = sc.parallelize("""{"action":"create","timestamp":"2016-01-07T00:01:17Z"}""" :: Nil)
val df = sqlContext.read.json(events)
Run Code Online (Sandbox Code Playgroud)
mar*_*kus 18
由于在Spark 2.2中不推荐使用从RDD读取JSON的函数,因此这将是另一种选择:
val jsonStr = """{ "metadata": { "key": 84896, "value": 54 }}"""
import spark.implicits._ // spark is your SparkSession object
val df = spark.read.json(Seq(jsonStr).toDS)
Run Code Online (Sandbox Code Playgroud)
以下是如何在 Java (Spark 2.2+) 中将 Json 字符串转换为 Dataframe 的示例:
String str1 = "{\"_id\":\"123\",\"ITEM\":\"Item 1\",\"CUSTOMER\":\"Billy\",\"AMOUNT\":285.2}";
String str2 = "{\"_id\":\"124\",\"ITEM\":\"Item 2\",\"CUSTOMER\":\"Sam\",\"AMOUNT\":245.85}";
List<String> jsonList = new ArrayList<>();
jsonList.add(str1);
jsonList.add(str2);
SparkContext sparkContext = new SparkContext(new SparkConf()
.setAppName("myApp").setMaster("local"));
JavaSparkContext javaSparkContext = new JavaSparkContext(sparkContext);
SQLContext sqlContext = new SQLContext(sparkContext);
JavaRDD<String> javaRdd = javaSparkContext.parallelize(jsonList);
Dataset<Row> data = sqlContext.read().json(javaRdd);
data.show();
Run Code Online (Sandbox Code Playgroud)
结果如下:
+------+--------+------+---+
|AMOUNT|CUSTOMER| ITEM|_id|
+------+--------+------+---+
| 285.2| Billy|Item 1|123|
|245.85| Sam|Item 2|124|
+------+--------+------+---+
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
51201 次 |
| 最近记录: |