df[100, c("column")]在scala spark数据框中是否有任何替代方法.我想从一列火花数据框中选择特定的行.例如100th,在R等效代码中的行
我有一个以下格式的数据框:
+----+---+-----+------+-----+------+
|AGEF|SEX|F0_34|F35_44|M0_34|M35_44|
+----+---+-----+------+-----+------+
| 30| 0| 0| 0| 0| 0|
| 94| 1| 0| 0| 0| 0|
| 94| 0| 0| 0| 0| 0|
| 94| 0| 0| 0| 0| 0|
| 94| 1| 0| 0| 0| 0|
| 44| 0| 0| 0| 0| 0|
| 66| 0| 0| 0| 0| 0|
| 66| 0| 0| 0| 0| 0|
| 74| 0| 0| 0| 0| 0|
| 74| 0| 0| 0| 0| 0|
| 29| 0| 0| 0| 0| …Run Code Online (Sandbox Code Playgroud) 我在 Scala 中有一个列名列表,例如
var cols = List("col1", "col2", "col3","col4")
Run Code Online (Sandbox Code Playgroud)
我还有一个包含这些列的数据框,但都是字符串。现在我想通过遍历数据框的列表或列来转换数据框的列,因为我的列列表非常大,我无法使用这么多.withColumn参数
提前致谢