相关疑难解决方法(0)

迭代日期范围(scala方式)

鉴于开始日期和结束日期,我希望白天使用foreach,map或类似函数对其进行迭代.就像是

(DateTime.now to DateTime.now + 5.day by 1.day).foreach(println)
Run Code Online (Sandbox Code Playgroud)

我正在使用https://github.com/nscala-time/nscala-time,但如果我使用上面的语法,我会返回一个joda Interval对象,我怀疑它也不是一系列日期,而是一种范围毫秒.

编辑:这个问题已经过时了.正如joda主页上所建议的那样,如果你使用的是java 8,你应该从java.time开始或者迁移到java.time.

iteration datetime scala nscala-time

10
推荐指数
3
解决办法
2万
查看次数

根据spark中的日期范围填充数据

我有示例数据集,我想根据开始日期和结束日期(从 2016-01-01 到 2016-01-08)用 0 填充日期。

id,date,quantity
1,2016-01-03,10
1,2016-01-04,20
1,2016-01-06,30
1,2016-01-07,20
2,2016-01-02,10
2,2016-01-03,10
2,2016-01-04,20
2,2016-01-06,20
2,2016-01-07,20
Run Code Online (Sandbox Code Playgroud)

根据下面链接的解决方案,我能够实现部分解决方案。 填充 Spark 数据框列中缺失的日期

有人可以建议如何填写从开始日期到结束日期的日期,甚至从开始日期到结束日期。

id,date,quantity
1,2016-01-01,0
1,2016-01-02,0
1,2016-01-03,10
1,2016-01-04,20
1,2016-01-05,0
1,2016-01-06,30
1,2016-01-07,20
1,2016-01-08,0
2,2016-01-01,0
2,2016-01-02,10
2,2016-01-03,10
2,2016-01-04,20
2,2016-01-05,0
2,2016-01-06,20
2,2016-01-07,20
2,2016-01-08,0
Run Code Online (Sandbox Code Playgroud)

scala apache-spark pyspark

2
推荐指数
1
解决办法
2088
查看次数

标签 统计

scala ×2

apache-spark ×1

datetime ×1

iteration ×1

nscala-time ×1

pyspark ×1