相关疑难解决方法(0)

使用列值作为spark DataFrame函数的参数

考虑以下DataFrame:

#+------+---+
#|letter|rpt|
#+------+---+
#|     X|  3|
#|     Y|  1|
#|     Z|  2|
#+------+---+
Run Code Online (Sandbox Code Playgroud)

可以使用以下代码创建:

df = spark.createDataFrame([("X", 3),("Y", 1),("Z", 2)], ["letter", "rpt"])
Run Code Online (Sandbox Code Playgroud)

假设我想在每一行中重复列中指定的次数rpt,就像这个问题一样

一种方法是使用以下查询将我的解决方案复制到该问题pyspark-sql

query = """
SELECT *
FROM
  (SELECT DISTINCT *,
                   posexplode(split(repeat(",", rpt), ",")) AS (index, col)
   FROM df) AS a
WHERE index > 0
"""
query = query.replace("\n", " ")  # replace newlines with spaces, avoid EOF error
spark.sql(query).drop("col").sort('letter', 'index').show()
#+------+---+-----+
#|letter|rpt|index|
#+------+---+-----+
#|     X|  3|    1|
#| …
Run Code Online (Sandbox Code Playgroud)

apache-spark apache-spark-sql pyspark pyspark-sql

5
推荐指数
1
解决办法
2709
查看次数