相关疑难解决方法(0)

SparkSQL是否支持子查询?

我在Spark shell中运行此查询,但它给了我错误,

sqlContext.sql(
 "select sal from samplecsv where sal < (select MAX(sal) from samplecsv)"
).collect().foreach(println)
Run Code Online (Sandbox Code Playgroud)

错误:

java.lang.RuntimeException:[1.47]失败:``)''预期但找到了标识符MAX

从samplecsv中选择sal,其中sal <(从samplecsv中选择MAX(sal))^ scala.sys.package $ .error(package.scala:27)任何人都可以解释我,谢谢

sql subquery apache-spark apache-spark-sql

15
推荐指数
1
解决办法
3万
查看次数

全局启用spark.sql的区分大小写

该选项spark.sql.caseSensitive控制列名称等是否应区分大小写.它可以通过例如设置

spark_session.sql('set spark.sql.caseSensitive=true')
Run Code Online (Sandbox Code Playgroud)

并且是false默认的.

这似乎并不可能,使其能够在全球范围内$SPARK_HOME/conf/spark-defaults.conf

spark.sql.caseSensitive: True
Run Code Online (Sandbox Code Playgroud)

虽然.这是打算还是有一些其他文件来设置SQL选项?

同样在消息来源中声明,根本不鼓励这样做.这个建议背后的理由是什么?

apache-spark pyspark

5
推荐指数
2
解决办法
6653
查看次数

标签 统计

apache-spark ×2

apache-spark-sql ×1

pyspark ×1

sql ×1

subquery ×1