Mic*_*nza 59 scala apache-spark
我正在使用该randomSplit函数来获取少量的数据帧以用于开发目的,我最终只取这个函数返回的第一个df.
val df_subset = data.randomSplit(Array(0.00000001, 0.01), seed = 12345)(0)
Run Code Online (Sandbox Code Playgroud)
如果我使用df.take(1000)那么我最终得到一个行数组 - 而不是数据帧,所以这对我不起作用.
有没有更好,更简单的方法来说出df的前1000行并将其存储为另一个df?