men*_*h84 4 apache-spark apache-spark-sql pyspark spark-dataframe
在Spark SQL中,可以使用以下方法将数据帧作为表进行查询:
sqlContext.registerDataFrameAsTable(df, "mytable")
Run Code Online (Sandbox Code Playgroud)
假设我拥有的是什么,我mytable如何获取或访问它作为DataFrame?
那么你可以查询它并将结果保存到变量中.检查SQLContext方法sql是否返回一个DataFrame.
df = sqlContext.sql("SELECT * FROM mytable")
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
7753 次 |
| 最近记录: |