我正在努力获得2个数据帧的CROSS JOIN.我正在使用spark 2.0.如何用2个数据帧实现CROSSS JOIN.
编辑:
val df=df.join(df_t1, df("Col1")===df_t1("col")).join(df2,joinType=="cross join").where(df("col2")===df2("col2"))
Run Code Online (Sandbox Code Playgroud) 我是新手来激发SQL,
在MS SQL中,我们有LEFT关键字LEFT(Columnname,1) in('D','A') then 1 else 0.
如何在SPARK SQL中实现相同的功能.请指导我
我对 Spark 和 Scala 很陌生,我正在编写 Spark SQL 代码。我可以在我的逻辑中应用 CROSS JOIN 和 CROSS APPLY。在这里,我将发布必须转换为 Spark SQL 的 SQL 查询。
select Table1.Column1,Table2.Column2,Table3.Column3
from Table1 CROSS JOIN Table2 CROSS APPLY Table3
Run Code Online (Sandbox Code Playgroud)
我需要将上述查询转换为 Spark SQL 中的 SQLContext。请帮助我。提前致谢。