小编Nem*_*hah的帖子

使用Scala获取Spark数据集中与最新时间戳对应的行

我对Spark和Scala相对较新.我有一个数据帧,其格式如下:

| Col1 | Col2 | Col3 | Col_4 | Col_5 | Col_TS                  | Col_7 | 

| 1234 | AAAA | 1111 | afsdf | ewqre | 1970-01-01 00:00:00.0   | false |
| 1234 | AAAA | 1111 | ewqrw | dafda | 2017-01-17 07:09:32.748 | true  |
| 1234 | AAAA | 1111 | dafsd | afwew | 2015-01-17 07:09:32.748 | false |
| 5678 | BBBB | 2222 | afsdf | qwerq | 1970-01-01 00:00:00.0   | true  | …
Run Code Online (Sandbox Code Playgroud)

scala apache-spark spark-dataframe

5
推荐指数
2
解决办法
4853
查看次数

标签 统计

apache-spark ×1

scala ×1

spark-dataframe ×1