如何在SparkSQL中实现Like-condition?

lia*_*lee 9 sql apache-spark apache-spark-sql

如何编写SQL语句以达到目标,如下面的语句:

SELECT * FROM table t WHERE t.a LIKE '%'||t.b||'%';
Run Code Online (Sandbox Code Playgroud)

谢谢.

zer*_*323 10

spark.sql.Column提供like方法但是现在(Spark 1.6.0/2.0.0)它只适用于字符串文字.你仍然可以使用原始SQL:

import org.apache.spark.sql.hive.HiveContext
val sqlContext = new HiveContext(sc) // Make sure you use HiveContext
import sqlContext.implicits._ // Optional, just to be able to use toDF

val df = Seq(("foo", "bar"), ("foobar", "foo"), ("foobar", "bar")).toDF("a", "b")

df.registerTempTable("df")
sqlContext.sql("SELECT * FROM df  WHERE a LIKE CONCAT('%', b, '%')")

// +------+---+
// |     a|  b|
// +------+---+
// |foobar|foo|
// |foobar|bar|
// +------+---+
Run Code Online (Sandbox Code Playgroud)

expr/ selectExpr:

df.selectExpr("a like CONCAT('%', b, '%')")
Run Code Online (Sandbox Code Playgroud)

在Spark 1.5中它将需要HiveContext.如果由于某种原因Hive上下文不是一个选项,您可以使用自定义udf:

import org.apache.spark.sql.functions.udf

val simple_like = udf((s: String, p: String) => s.contains(p))
df.where(simple_like($"a", $"b"))

val regex_like = udf((s: String, p: String) =>
  new scala.util.matching.Regex(p).findFirstIn(s).nonEmpty)
df.where(regex_like($"a", $"b"))
Run Code Online (Sandbox Code Playgroud)