Sha*_*kar 3 apache-spark apache-spark-sql pyspark
like我正在尝试在一个列上与另一个列一起使用该函数。可以Column在like函数内部使用吗?
示例代码:
df['col1'].like(concat('%',df2['col2'], '%'))
Run Code Online (Sandbox Code Playgroud)
错误日志:
py4j.Py4JException: py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:318) 处不存在类似([class org.apache.spark.sql.Column]) 的方法 (ReflectionEngine.java) :326)在py4j.Gateway.invoke(Gateway.java:274)在py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)在py4j.commands.CallCommand.execute(CallCommand.java:79)在py4j.GatewayConnection .run(GatewayConnection.java:214) 在 java.lang.Thread.run(Thread.java:748)
您可以使用 SQL 表达式来完成此操作。由于某种原因,Python API 不直接支持它。例如:
from pyspark.sql.functions import expr
data = [
("aaaa", "aa"),
("bbbb", "cc")
]
df = sc.parallelize(data).toDF(["value", "pattern"])
df = df.withColumn("match", expr("value like concat('%', pattern, '%')"))
df.show()
Run Code Online (Sandbox Code Playgroud)
输出这个:
+-----+-------+-----+
|value|pattern|match|
+-----+-------+-----+
| aaaa| aa| true|
| bbbb| cc|false|
+-----+-------+-----+
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
1675 次 |
| 最近记录: |