相关疑难解决方法(0)

如何融化Spark DataFrame?

PySpark中的Apache Spark中是否存在等效的Pandas Melt函数,或者至少在Scala中?

我到目前为止在python中运行了一个示例数据集,现在我想将Spark用于整个数据集.

提前致谢.

melt apache-spark apache-spark-sql pyspark

35
推荐指数
3
解决办法
1万
查看次数

在 spark 中迭代每一列并找到最大长度

我是spark scala的新手,我有以下情况我在集群上有一个表“TEST_TABLE”(可以是hive表)我正在将它转换为数据帧:

scala> val testDF = spark.sql("select * from TEST_TABLE limit 10")
Run Code Online (Sandbox Code Playgroud)

现在可以将 DF 视为

scala> testDF.show()

COL1|COL2|COL3  
----------------
abc|abcd|abcdef 
a|BCBDFG|qddfde 
MN|1234B678|sd
Run Code Online (Sandbox Code Playgroud)

我想要一个像下面这样的输出

COLUMN_NAME|MAX_LENGTH
       COL1|3
       COL2|8
       COL3|6
Run Code Online (Sandbox Code Playgroud)

在 spark scala 中这样做是否可行?

scala maxlength aggregation apache-spark

2
推荐指数
1
解决办法
2973
查看次数