小编Bla*_*aer的帖子

如何在spark的数据框中"否定选择"列

我无法弄清楚,但猜测它很简单.我有一个火花数据帧df.该df具有列"A","B"和"C".现在假设我有一个包含此df列的名称的Array:

column_names = Array("A","B","C")
Run Code Online (Sandbox Code Playgroud)

我想以df.select()这样的方式做,我可以指定哪些列不要选择.示例:假设我不想选择列"B".我试过了

df.select(column_names.filter(_!="B"))
Run Code Online (Sandbox Code Playgroud)

但这不起作用

org.apache.spark.sql.DataFrame不能应用于(Array [String])

所以,在这里它说它应该与Seq一起使用.但是,尝试

df.select(column_names.filter(_!="B").toSeq)
Run Code Online (Sandbox Code Playgroud)

结果是

org.apache.spark.sql.DataFrame不能应用于(Seq [String]).

我究竟做错了什么?

scala dataframe apache-spark apache-spark-sql

19
推荐指数
3
解决办法
2万
查看次数

标签 统计

apache-spark ×1

apache-spark-sql ×1

dataframe ×1

scala ×1