Bra*_*cox 5 scala combiners apache-spark
我们需要有效地转换大型键/值对列表,如下所示:
val providedData = List(
(new Key("1"), new Val("one")),
(new Key("1"), new Val("un")),
(new Key("1"), new Val("ein")),
(new Key("2"), new Val("two")),
(new Key("2"), new Val("deux")),
(new Key("2"), new Val("zwei"))
)
Run Code Online (Sandbox Code Playgroud)
到每个键的值列表,如下所示:
val expectedData = List(
(new Key("1"), List(
new Val("one"),
new Val("un"),
new Val("ein"))),
(new Key("2"), List(
new Val("two"),
new Val("deux"),
new Val("zwei")))
)
Run Code Online (Sandbox Code Playgroud)
键值对来自大键/值存储(Accumulo),因此键将被排序,但通常会跨越spark分区边界.每个键可以有数百万个键和数百个值.
我认为这个工作的正确工具是spark的combineByKey操作,但是只能找到泛型类型(如Int)的简洁示例,我一直无法推广到用户定义的类型,如上所述.
由于我怀疑很多其他人会有同样的问题,我希望有人可以提供scala语法的完全指定(详细)和简洁示例,以便将combineByKey与上面的用户定义类型一起使用,或者可能指出更好的工具我错过了
我不是一个真正的 Spark 专家,但基于这个问题,我认为你可以执行以下操作:
val rdd = sc.parallelize(providedData)
rdd.combineByKey(
// createCombiner: add first value to a list
(x: Val) => List(x),
// mergeValue: add new value to existing list
(acc: List[Val], x) => x :: acc,
// mergeCominber: combine the 2 lists
(acc1: List[Val], acc2: List[Val]) => acc1 ::: acc2
)
Run Code Online (Sandbox Code Playgroud)
使用aggregateByKey:
rdd.aggregateByKey(List[Val]())(
(acc, x) => x :: acc,
(acc1, acc2) => acc1 ::: acc2
)
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
3150 次 |
| 最近记录: |