如何使用PySpark解析现有临时表中的json字符串?

cod*_*rer 4 apache-spark pyspark spark-dataframe

我有一个现有的Spark数据框,其中包含以下列:

--------------------
pid | response
--------------------
 12 | {"status":"200"}
Run Code Online (Sandbox Code Playgroud)

response是一个字符串列.有没有办法将其转换为JSON并提取特定字段?可以在Hive中使用侧视图吗?我查看了一些使用explode和后来查看的示例,但它似乎不适用于Spark 2.1.1

Sur*_*esh 6

从pyspark.sql.functions,你可以使用from_json,get_json_object,json_tuple中的任何一个从json字符串中提取字段,如下所示,

>>from pyspark.sql.functions import json_tuple,from_json,get_json_object
>>> from pyspark.sql import SparkSession
>>> spark = SparkSession.builder.getOrCreate()
>>> l = [(12, '{"status":"200"}'),(13,'{"status":"200","somecol":"300"}')]
>>> df = spark.createDataFrame(l,['pid','response'])
>>> df.show()
+---+--------------------+
|pid|            response|
+---+--------------------+
| 12|    {"status":"200"}|
| 13|{"status":"200","...|
+---+--------------------+

>>> df.printSchema()
root
 |-- pid: long (nullable = true)
 |-- response: string (nullable = true)

Using json_tuple :
>>> df.select('pid',json_tuple(df.response,'status','somecol')).show()
+---+---+----+
|pid| c0|  c1|
+---+---+----+
| 12|200|null|
| 13|200| 300|
+---+---+----+

Using from_json:
>>> schema = StructType([StructField("status", StringType()),StructField("somecol", StringType())])
>>> df.select('pid',from_json(df.response, schema).alias("json")).show()
+---+----------+
|pid|      json|
+---+----------+
| 12|[200,null]|
| 13| [200,300]|
+---+----------+

Using get_json_object:
>>> df.select('pid',get_json_object(df.response,'$.status').alias('status'),get_json_object(df.response,'$.somecol').alias('somecol')).show()
+---+------+-------+
|pid|status|somecol|
+---+------+-------+
| 12|   200|   null|
| 13|   200|    300|
+---+------+-------+
Run Code Online (Sandbox Code Playgroud)

  • 供将来读者使用的附带说明,如果您使用的是非标准的json文本,那么使用这些功能后所获得的所有内容均为NULL,因此请检查您的无效字段并喜欢使用方案方法,因为它适用于json方案中的双引号或单引号字符。 (2认同)