Kar*_*ava 1 python apache-spark apache-spark-sql pyspark
如何使用PySpark阅读以下JSON结构来激发数据帧?
我的JSON结构
{"results":[{"a":1,"b":2,"c":"name"},{"a":2,"b":5,"c":"foo"}]}
Run Code Online (Sandbox Code Playgroud)
我尝试过:
df = spark.read.json('simple.json');
Run Code Online (Sandbox Code Playgroud)
我希望输出a,b,c作为列和值作为相应的行.
谢谢.
Json字符串变量
如果你有json字符串作为变量,那么你可以做
simple_json = '{"results":[{"a":1,"b":2,"c":"name"},{"a":2,"b":5,"c":"foo"}]}'
rddjson = sc.parallelize([simple_json])
df = sqlContext.read.json(rddjson)
from pyspark.sql import functions as F
df.select(F.explode(df.results).alias('results')).select('results.*').show(truncate=False)
Run Code Online (Sandbox Code Playgroud)
哪个会给你
+---+---+----+
|a |b |c |
+---+---+----+
|1 |2 |name|
|2 |5 |foo |
+---+---+----+
Run Code Online (Sandbox Code Playgroud)
Json字符串作为文件中的单独行(sparkContext和sqlContext)
如果您在文件中将json字符串作为单独的行,那么您可以使用sparkContext将其读入rdd [string],如上所述,其余过程与上面相同
rddjson = sc.textFile('/home/anahcolus/IdeaProjects/pythonSpark/test.csv')
df = sqlContext.read.json(rddjson)
df.select(F.explode(df['results']).alias('results')).select('results.*').show(truncate=False)
Run Code Online (Sandbox Code Playgroud)
Json字符串作为文件中的单独行(仅限sqlContext)
如果您在文件中将json字符串作为单独的行,那么您只能使用它sqlContext
.但是这个过程很复杂,因为你必须为它创建模式
df = sqlContext.read.text('path to the file')
from pyspark.sql import functions as F
from pyspark.sql import types as T
df = df.select(F.from_json(df.value, T.StructType([T.StructField('results', T.ArrayType(T.StructType([T.StructField('a', T.IntegerType()), T.StructField('b', T.IntegerType()), T.StructField('c', T.StringType())])))])).alias('results'))
df.select(F.explode(df['results.results']).alias('results')).select('results.*').show(truncate=False)
Run Code Online (Sandbox Code Playgroud)
这应该给你与上述结果相同
我希望答案是有帮助的
归档时间: |
|
查看次数: |
7484 次 |
最近记录: |