小编nar*_*ral的帖子

从spark数据帧中获取特定行

df[100, c("column")]在scala spark数据框中是否有任何替代方法.我想从一列火花数据框中选择特定的行.例如100th,在R等效代码中的行

apache-spark apache-spark-sql

24
推荐指数
5
解决办法
6万
查看次数

SPARK:根据多行条件设置列值

我有一个以下格式的数据框:

+----+---+-----+------+-----+------+
|AGEF|SEX|F0_34|F35_44|M0_34|M35_44|
+----+---+-----+------+-----+------+
|  30|  0|    0|     0|    0|     0|
|  94|  1|    0|     0|    0|     0|
|  94|  0|    0|     0|    0|     0|
|  94|  0|    0|     0|    0|     0|
|  94|  1|    0|     0|    0|     0|
|  44|  0|    0|     0|    0|     0|
|  66|  0|    0|     0|    0|     0|
|  66|  0|    0|     0|    0|     0|
|  74|  0|    0|     0|    0|     0|
|  74|  0|    0|     0|    0|     0|
|  29|  0|    0|     0|    0| …
Run Code Online (Sandbox Code Playgroud)

dataframe apache-spark apache-spark-sql

4
推荐指数
1
解决办法
983
查看次数

以迭代方式更改列类型 Spark 数据帧

我在 Scala 中有一个列名列表,例如

var cols = List("col1", "col2", "col3","col4")
Run Code Online (Sandbox Code Playgroud)

我还有一个包含这些列的数据框,但都是字符串。现在我想通过遍历数据框的列表或列来转换数据框的列,因为我的列列表非常大,我无法使用这么多.withColumn参数

提前致谢

dataframe apache-spark apache-spark-sql

3
推荐指数
1
解决办法
1659
查看次数

标签 统计

apache-spark ×3

apache-spark-sql ×3

dataframe ×2