相关疑难解决方法(0)

如何将函数应用于Spark DataFrame的列?

我们假设我们有一个Spark DataFrame

df.getClass
Class[_ <: org.apache.spark.sql.DataFrame] = class org.apache.spark.sql.DataFrame
Run Code Online (Sandbox Code Playgroud)

使用以下架构

df.printSchema
root
|-- rawFV: string (nullable = true)
|-- tk: array (nullable = true)
|    |-- element: string (containsNull = true)
Run Code Online (Sandbox Code Playgroud)

鉴于列的每一行tk都是一个字符串数组,如何编写一个Scala函数来返回每行中的元素数量?

scala dataframe apache-spark apache-spark-sql

7
推荐指数
1
解决办法
2万
查看次数

标签 统计

apache-spark ×1

apache-spark-sql ×1

dataframe ×1

scala ×1