我已将CSV数据加载到Spark DataFrame中。
我需要将此数据帧切成两个不同的数据帧,其中每个数据帧都包含来自原始数据帧的一组列。
如何基于列选择Spark数据框中的子集?
scala apache-spark apache-spark-sql
apache-spark ×1
apache-spark-sql ×1
scala ×1