如何在Python中解压缩RDD中每个项目的值(列表)?

Lon*_*guy 3 python apache-spark rdd pyspark

我有一个RDD,每个项目都是表格

(key, [ele1, ele2, ele3, ..., elen])
Run Code Online (Sandbox Code Playgroud)

每个项目都是一个键值对,值是一个元素列表.

我想解压缩列表,以便我可以创建一个新的RDD,每个项目包含一个元素,如下所示:

(key, ele1)
(key, ele2)
(key, ele3)
.
.
.
(key, ele4)
Run Code Online (Sandbox Code Playgroud)

我怎么能在PySpark中做到这一点?

我试过了

RDD.flatmap(lambda line: line[1]) 
Run Code Online (Sandbox Code Playgroud)

但这不起作用.

tim*_*geb 7

比如这个?我使用str元素来简化.

>>> rdd = sc.parallelize([('key', ['ele1', 'ele2'])])
>>> rdd.flatMap(lambda data: [(data[0], x) for x in data[1]]).collect()
[('key', 'ele1'), ('key', 'ele2')]
Run Code Online (Sandbox Code Playgroud)

  • 这是一个错字 - "flatmap"!=`flatMap`. (7认同)