sfa*_*tor 14 scala apache-spark apache-spark-sql
我在Spark中导入了一个json文件,并将其转换为表格
myDF.registerTempTable("myDF")
然后我想在这个结果表上运行SQL查询
val newTable = sqlContext.sql("select column-1 from myDF")
然而,由于列名称的夸大,这给了我一个错误column-1.我如何解决这个问题是Spark SQL?
Per*_*ost 40
反引号(`)似乎有用,所以
val newTable = sqlContext.sql("select `column-1` from myDF")
应该做的,至少在Spark v1.3.x中.
| 归档时间: | 
 | 
| 查看次数: | 14339 次 | 
| 最近记录: |