如何将表转换为Spark Dataframe

men*_*h84 4 apache-spark apache-spark-sql pyspark spark-dataframe

在Spark SQL中,可以使用以下方法将数据帧作为表进行查询:

sqlContext.registerDataFrameAsTable(df, "mytable")
Run Code Online (Sandbox Code Playgroud)

假设我拥有的是什么,我mytable如何获取或访问它作为DataFrame?

Alb*_*nto 6

那么你可以查询它并将结果保存到变量中.检查SQLContext方法sql是否返回一个DataFrame.

df = sqlContext.sql("SELECT * FROM mytable")
Run Code Online (Sandbox Code Playgroud)


Igo*_*res 6

最干净的方法:

df = sqlContext.table("mytable")
Run Code Online (Sandbox Code Playgroud)

文献资料