lia*_*lee 9 sql apache-spark apache-spark-sql
如何编写SQL语句以达到目标,如下面的语句:
SELECT * FROM table t WHERE t.a LIKE '%'||t.b||'%';
Run Code Online (Sandbox Code Playgroud)
谢谢.
zer*_*323 10
spark.sql.Column
提供like
方法但是现在(Spark 1.6.0/2.0.0)它只适用于字符串文字.你仍然可以使用原始SQL:
import org.apache.spark.sql.hive.HiveContext
val sqlContext = new HiveContext(sc) // Make sure you use HiveContext
import sqlContext.implicits._ // Optional, just to be able to use toDF
val df = Seq(("foo", "bar"), ("foobar", "foo"), ("foobar", "bar")).toDF("a", "b")
df.registerTempTable("df")
sqlContext.sql("SELECT * FROM df WHERE a LIKE CONCAT('%', b, '%')")
// +------+---+
// | a| b|
// +------+---+
// |foobar|foo|
// |foobar|bar|
// +------+---+
Run Code Online (Sandbox Code Playgroud)
或expr
/ selectExpr
:
df.selectExpr("a like CONCAT('%', b, '%')")
Run Code Online (Sandbox Code Playgroud)
在Spark 1.5中它将需要HiveContext
.如果由于某种原因Hive上下文不是一个选项,您可以使用自定义udf
:
import org.apache.spark.sql.functions.udf
val simple_like = udf((s: String, p: String) => s.contains(p))
df.where(simple_like($"a", $"b"))
val regex_like = udf((s: String, p: String) =>
new scala.util.matching.Regex(p).findFirstIn(s).nonEmpty)
df.where(regex_like($"a", $"b"))
Run Code Online (Sandbox Code Playgroud)
归档时间: |
|
查看次数: |
16509 次 |
最近记录: |