小编use*_*482的帖子

基于第一个数据帧Java中的列创建具有新列值的新Spark DataFrame

这应该很简单,但....使用Spark 1.6.1 ....我有DataFrame#1,列A,B,C.值:

A  B  C
1  2  A
2  2  A
3  2  B
4  2  C
Run Code Online (Sandbox Code Playgroud)

然后我用新列D创建一个新的数据帧,所以:

DataFrame df2 = df1.withColumn("D", df1.col("C"));
Run Code Online (Sandbox Code Playgroud)

到目前为止这么好但我实际上希望D列中的值是有条件的,即:

// pseudo code
if (col C = "A") the col D = "X"
else if (col C = "B") the col D = "Y"
else col D = "Z"
Run Code Online (Sandbox Code Playgroud)

然后,我将删除C列并将D重命名为C.我已经尝试查看Column函数,但似乎没有任何内容符合要求.我想过使用df1.rdd().map()并迭代这些行,但除了实际上并没有让它工作之外,我有点认为DataFrames的重点是要远离RDD抽象?

不幸的是我必须用Java做这个(当然Spark和Java并不是最优的!!).似乎我错过了明显的东西,很高兴在提出解决方案时被证明是个白痴!

java dataframe apache-spark apache-spark-sql

12
推荐指数
1
解决办法
3万
查看次数

标签 统计

apache-spark ×1

apache-spark-sql ×1

dataframe ×1

java ×1