如何在Spark中实现"交叉加入"?

Sha*_*Guo 12 cross-join apache-spark

我们计划将Apache Pig代码移动到新的Spark平台.

Pig具有"Bag/Tuple/Field"概念,其行为与关系数据库类似.Pig为CROSS/INNER/OUTER连接提供支持.

对于CROSS JOIN,我们可以使用别名= CROSS别名,别名[,别名...] [PARTITION BY partitioner] [PARALLEL n];

但是当我们转向Spark平台时,我在Spark API中找不到任何对应物.你有什么主意吗?

Dan*_*bos 21

是的oneRDD.cartesian(anotherRDD).